View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
idem.. per poco l'ho persa......
@snake l'ue 3 è pensato a ut3, quindi per ambienti enormi quindi non trovo stranissimo se le text non sono a livelli di altri giochi. che poi è un gioco ad alta velocita e non si avrà il tempo di soffermarsi a guardare un muro XD
si vabè... ma trovo assurdo che il unreal engine 3 si faccia sorpassare dal source engine uscito nel 2004... (che io reputo ancora superiore... e che lo sarà ancora di piu con l'illuminazione dinamica di ep2).
cmq raga mi capita una cosa strana, impostando il filtro antialias a 4x BOX, mi vengono filtrate anche le texture... non solo i bordi degli oggetti, infatti senza questo filtro se vado in giochi vecchi vedo le texture pixellose, mentre impostando a 4x le texture sono uniformi... come mai?
mordsiger
02-10-2007, 15:48
qualcuno una ati tray tool con la 2900 ???
24cm è la lunghezza totale della scheda ?!?
e già...
raga, ma possibile che sia la scheda video a farmi freezare il pc? mi succede ogni tanto... forse a causa dei driver beta che ho messo? ma pensadoci bene stì freeze c'erano anche prima dei driver beta... :cry:
mordsiger
02-10-2007, 16:30
raga, ma possibile che sia la scheda video a farmi freezare il pc? mi succede ogni tanto... forse a causa dei driver beta che ho messo? ma pensadoci bene stì freeze c'erano anche prima dei driver beta... :cry:
anche a me a volte succede
Iantikas
02-10-2007, 16:58
...ma si freeza quando, in idle o in load? e come, skermata blu, blocco o reset senza skermata blu?...
...ciao
ragazzi una cosa: ma quando occate la scheda, per provare la stabilità, quandi 3dmark 06 gli fate fare? uno basta, e soprattutto se lo faccio fare a step di 20mhz per volta, è troppo?
mordsiger
02-10-2007, 17:10
...ma si freeza quando, in idle o in load? e come, skermata blu, blocco o reset senza skermata blu?...
...ciao
può essere sia in idle che in load... senza schermata blu...semplicemente come se spingessi il reset !!!
ragazzi una cosa: ma quando occate la scheda, per provare la stabilità, quandi 3dmark 06 gli fate fare? uno basta, e soprattutto se lo faccio fare a step di 20mhz per volta, è troppo?
io faccio sempre sia il 05 che il 06...poi giunto a fine overclock per vedere se regge il tutto lancio un ice storm fighters in High poi lo lascio andare di lungo
mordsiger
02-10-2007, 17:23
raga, ma possibile che sia la scheda video a farmi freezare il pc? mi succede ogni tanto... forse a causa dei driver beta che ho messo? ma pensadoci bene stì freeze c'erano anche prima dei driver beta... :cry:
di un po' nn è che me e te abbiamo un ali un po' piccolino ed è quello?....ipotesi
TecnoWorld8
02-10-2007, 17:25
di un po' nn è che me e te abbiamo un ali un po' piccolino ed è quello?....ipotesi
670W è piccolo? :)
di un po' nn è che me e te abbiamo un ali un po' piccolino ed è quello?....ipotesi
Impossibile,per me non passi i 450 in full.
mordsiger
02-10-2007, 17:31
670W è piccolo? :)
in se per se nn è piccolo, ma giustamente diventa piccolo se la potenza che richiedi è uguale o superiore a quella che lui ti può dare.
da qui
http://www.extreme.outervision.com/PSUEngine
io "ciuccio" 600W...è cmq tiratino..no?
mordsiger
02-10-2007, 17:32
Impossibile,per me non passi i 450 in full.
magari 450... avrei speso meno per l'ali !!!1
io faccio sempre sia il 05 che il 06...poi giunto a fine overclock per vedere se regge il tutto lancio un ice storm fighters in High poi lo lascio andare di lungo
Grazie ;)
...ma si freeza quando, in idle o in load? e come, skermata blu, blocco o reset senza skermata blu?...
...ciao
a seconda... può succede sia su win o mentre gioco, il pc si freeza cioe l'immagine rimane fissa, su win se muovo la freccia del mouse rimane tutto bloccato... neanche la combinazione alt+ctrl+del riesce a resuscitare il pc :cry:
al inizio pensavo al overclock del procio... ma dopo aver fatto 24 ore di doppio orthos lo escluderei...
poi ho pensato al hard disk piu vecchio che ha tipo 5 anni... ma mi fa strano...
e infine ho pensato alla scheda video...
cmq dubito che sia l'alimentatore... 650 watt del enermax infiniti potrebbe tranquillamente tenerne 2 in crossfire di hd2900...
:help:
Iantikas
02-10-2007, 18:06
in se per se nn è piccolo, ma giustamente diventa piccolo se la potenza che richiedi è uguale o superiore a quella che lui ti può dare.
da qui
http://www.extreme.outervision.com/PSUEngine
io "ciuccio" 600W...è cmq tiratino..no?
lascia perdere quel calcolatore...somma d ogni componente il consumo di picco (teorico) e vien da se ke già è quasi impossibile portare un unico componente al suo consumo di picco figurarsi tutti i componenti del pc...i risultati ke fornisce si distanziano in maniera abnorme dal reale consumo del sistema...
...utilizza invece questo... http://web.aanet.com.au/SnooP/psucalc.php ...ke di ogni componente somma il consumo di picco rilevato strumentalmente...anke lui ti porterà a risultati leggermente superiori al consumo ke realmente ha il tuo pc in una situazione d load normale come può essere un videogioco ma può cmq essere preso come una sorta d situazione limite ke raggiungeresti se portassi a pieno carico tutte le componenti del pc...
...ciao
p.s.: l'utente d prima nn aveva sbagliato...realisticamente stai sui 400/450W in load...questo nn significa cmq ke hai fatto male a prendere un 670W...è buona norma utilizzare un'ali ke sia sempre leggermete sovradimensionato rispetto al consumo del sistema (naturalmente nn in maniera esagerata)...e questo x sfruttare l'ali nel range d'erogazione ottimale (x tensioni, ripple, efficenza etc) ke x tutti gli ali si aggira intorno al 20/80% del max erogabile...
mordsiger
02-10-2007, 18:26
lascia perdere quel calcolatore...somma d ogni componente il consumo di picco (teorico) e vien da se ke già è quasi impossibile portare un unico componente al suo consumo di picco figurarsi tutti i componenti del pc...i risultati ke fornisce si distanziano in maniera abnorme dal reale consumo del sistema...
...utilizza invece questo... http://web.aanet.com.au/SnooP/psucalc.php ...ke di ogni componente somma il consumo di picco rilevato strumentalmente...anke lui ti porterà a risultati leggermente superiori al consumo ke realmente ha il tuo pc in una situazione d load normale come può essere un videogioco ma può cmq essere preso come una sorta d situazione limite ke raggiungeresti se portassi a pieno carico tutte le componenti del pc...
...ciao
p.s.: l'utente d prima nn aveva sbagliato...realisticamente stai sui 400/450W in load...questo nn significa cmq ke hai fatto male a prendere un 670W...è buona norma utilizzare un'ali ke sia sempre leggermete sovradimensionato rispetto al consumo del sistema (naturalmente nn in maniera esagerata)...e questo x sfruttare l'ali nel range d'erogazione ottimale (x tensioni, ripple, efficenza etc) ke x tutti gli ali si aggira intorno al 20/80% del max erogabile...
grazie... l'ho fatto li e mi da raccomanded psu 684W con 50A nella +12....sono a posto !!!
Athlon 64 3000+
02-10-2007, 19:33
qualcuno una ati tray tool con la 2900 ???
putroppo ati tray tools non supporta le hd 2x00 series e quindi per ora te lo sconsiglio di usare.
Impossibile,per me non passi i 450 in full.
Se non mi ricordo male dalla rece di HWU il sistema arrivava a consumare poco piú di 350W in load con singola scheda....dipendendo dalla quantitá di periferiche potresti arrivare sui 400W o quasi. La maggior parte degli ali (di qualitá) in commercio fa il suo dovere egregiamente :)
PS: lasciate stare PSUcalculator :Prrr:
EDIT: trovato :)
http://www.hwupgrade.it/articoli/skvideo/1725/ati-radeon-hd-2900-xt-e-il-momento-di-r600_20.html
Adesso non so dirvi con certezza se il consumo é misurato direttamente dalla presa (ma di solito fanno cosi qui ad HWU) quindi per avere il consumo dei componenti bisogna moltiplicare i valori per l' efficienza dell' alimentatore. E aggiungo che con i nuovi driver i consumi in idle della 2900 sono scesi sensibilmente.
ok raga... è il momento della verità :D
ho appena scaricato e installato la beta3 di crysis.. ora vado a vedere come gira sulla hd2900xt :eek:
:sperem: :sperem: :sperem: :sperem:
ok raga... è il momento della verità :D
ho appena scaricato e installato la beta3 di crysis.. ora vado a vedere come gira sulla hd2900xt :eek:
:sperem: :sperem: :sperem: :sperem:
Questo torna solo domani (se torna) :Prrr:
pioss~s4n
02-10-2007, 22:23
ok raga... è il momento della verità :D
ho appena scaricato e installato la beta3 di crysis.. ora vado a vedere come gira sulla hd2900xt :eek:
:sperem: :sperem: :sperem: :sperem:
io con 1950xt gioco bene a dettagli medi, alzando gioco vergognosamente male. C'è da dire che a dettagli medi sembra Fa Cry (orizzonte a parte), quindi tutto torna.. :D
è qualcosa di favoloso, mai visto qualcosa di simile, graficamente incredibile, lo faccio girare con la hd2900xt al massimo livello di dettaglio a 1280x1024 fluidissimo, cmq le texture sono super dettagliate, e mi sono gia innamorato degli effetti del acqua, le ombre sono ---> :eek: e se questa è la resa grafica in dx9 e con una beta, non oso immaginare il gioco finale in dx10... OMG...
ora torno a fare la beta... almeno per tutta la notte
veramente bellissimo :eek: :eek: :eek: :eek: :eek:
All'aperto e al chiuso quanti fps fai?
Magari un bel log di fraps ci starebbe da dio
Non hai la possibilità di utilizzare risoluzioni maggiori?
;)
Liberato
02-10-2007, 22:55
sulla busta del 3dmark06 versione advanced fornito in bundle con la skeda trovi scritto in piccolo il link da dove puoi scaricare tale file con le istruzioni x come/dove metterlo...
...altrimenti mandami la tua mail in un pvt ke t'invio il file...ciao
p.s.: se vedi ke nn ti risp subito è xkè nn sono + collegato...nn continuare a scrivere altri post sull'argomento ke cmq appena mi loggo nuovamente ti rispondo...
nella cartella c:\windows\system32\futuremark\MSC ho trovato il file DIRECPLL.DLL , pulsante destro ho rinonimato la DLL, dopo con il pulsante destro sul collegamento di 3dmark06, alla voce destinazione, o aggiunto la stringa NOSYSTEMINFO , e tutto ok funziona:D :) :) grazie infinite Iantikas:)
parto con il log...
della beta3 di un certo gioco chiamato sis yrc (conoscete? no? meglio :asd:)
nda :sperem:
Interno del sottomarino (al chiuso quindi):
Frames, Time (ms), Min, Max, Avg
3738, 80414, 28, 82, 46.484
Esterno, nuotata, giretto per la vegetazione, etc
Frames, Time (ms), Min, Max, Avg
2599, 81182, 16, 46, 32.014
entrambi i benchmark sono fatti a 1280x1024 no AA e tutti i dettagli si HIGH (che è il massimo impostabile)
e continuo con il ridire che la grafica è stupenda... si lo so mi ripeto ma me ne sono innamorato :D
mi chiedo se il setting grafico disponibile nella beta di crysis sarà lo stesso del gioco definitivo...:mbe:
mi chiedo se il setting grafico disponibile nella beta di crysis sarà lo stesso del gioco definitivo...:mbe:
no, nei settaggi ce un ulteriore impostazione (VERY HIGH) che però è oscurata e non selezionabile... suppongo sia nel gioco finale la impostazione per sistemi DX10 con schede high end
ottimo spunto.. questo implica che il setting finale sarà sicuramente lo stesso, visto che hanno preferito oscurarlo, ma inserirlo comunque...
scusate ma perche con il mio pc
non riesco a farlo girare su high a piu di 19 fps ?
Mister Tarpone
03-10-2007, 07:44
scusate ma perche con il mio pc
non riesco a farlo girare su high a piu di 19 fps ?
molti dicono che lo fanno girare su high ...ma poi in realtà tengono attivata a medio l'impostazione più importante :asd: cioè quella dello "shader" :asd:
prova a tenere tutto su high con shader su medio e dimmi come va... ;)
molti dicono che lo fanno girare su high ...ma poi in realtà tengono attivata a medio l'impostazione più importante :asd: cioè quella dello "shader" :asd:
prova a tenere tutto su high con shader su medio e dimmi come va... ;)
si e migliorato di qualcosina
adesso ho messo molte cose su medium cosi gira a 30 max e 20 minimo
ke driver mi consigliate x questa video....:confused:
vorrei sapere sia quelli x Xp32bit sia x windows vista 64bit
Vorrei solo intervenire riguardo ai presunti problemi di alimentazione.
Quando sono passato alla 2900xt (da una X1800XL), avevo un alimentatore non di marca da 650W, ebbene, avviando ati tool appariva un messaggio che mi avvertiva su una non corretta alimentazione (potenza non sufficiente) della scheda video. Ho compreto un alimentatore Enermax Galaxy da 850W ed il messaggio è sparito.
Saluti
no, nei settaggi ce un ulteriore impostazione (VERY HIGH) che però è oscurata e non selezionabile... suppongo sia nel gioco finale la impostazione per sistemi DX10 con schede high end
Schede SLI, viste le performance su una beta a cui mancano molti elementi del sigle player, ovviamente se dovessero essere confermate le performance in linea generale.
Con questa scheda è meglio affiancare un monitor wide oppure 4:3 ?!?
Con questa scheda è meglio affiancare un monitor wide oppure 4:3 ?!?
Decisamente wide, ormai tutti gli ultimi giochi li supportano, se poi guardi sul pc anche del materiale video la scelta è scontata.
mordsiger
03-10-2007, 09:21
lascia perdere quel calcolatore...somma d ogni componente il consumo di picco (teorico) e vien da se ke già è quasi impossibile portare un unico componente al suo consumo di picco figurarsi tutti i componenti del pc...i risultati ke fornisce si distanziano in maniera abnorme dal reale consumo del sistema...
...utilizza invece questo... http://web.aanet.com.au/SnooP/psucalc.php ...ke di ogni componente somma il consumo di picco rilevato strumentalmente...anke lui ti porterà a risultati leggermente superiori al consumo ke realmente ha il tuo pc in una situazione d load normale come può essere un videogioco ma può cmq essere preso come una sorta d situazione limite ke raggiungeresti se portassi a pieno carico tutte le componenti del pc...
...ciao
p.s.: l'utente d prima nn aveva sbagliato...realisticamente stai sui 400/450W in load...questo nn significa cmq ke hai fatto male a prendere un 670W...è buona norma utilizzare un'ali ke sia sempre leggermete sovradimensionato rispetto al consumo del sistema (naturalmente nn in maniera esagerata)...e questo x sfruttare l'ali nel range d'erogazione ottimale (x tensioni, ripple, efficenza etc) ke x tutti gli ali si aggira intorno al 20/80% del max erogabile...
mi sono convinto che nn è l'ali....forse è la beta driver 7.10 RC3? nei 7.9 mi faceva gli artefatti con i beta no quindi hanno sistemato il 2d.... e se sistemandolo hanno sminchiato qualcos'altro dato che a me mi si resettava in 2d e nn in 3d?
adesso cmq ho messo su gli rc4...poi vi saprò dire
Mister Tarpone
03-10-2007, 09:22
si e migliorato di qualcosina
adesso ho messo molte cose su medium cosi gira a 30 max e 20 minimo
ma con quale risoluzione??? :confused:
mordsiger
03-10-2007, 09:30
nn ho capito cosa devo fare per scaricare la beta di crysis... mi sono registrato e mi arriva la mail di ign...poi? mi chiede praticamente se capisco l'inglese e che vga ho poi mi richiede la registrazion e a pagamento... perchè?
Decisamente wide, ormai tutti gli ultimi giochi li supportano, se poi guardi sul pc anche del materiale video la scelta è scontata.
Allora vada per il wide...
GunnyITA
03-10-2007, 09:33
Non ridete, ma io mi sono installato:
Indiana Jones e la tomba dell'imperatore perke' e' uno dei pochi giochi dove vesto i panni di uno dei miei eroi preferiti e faccio scazottate.
Il problema e' che il gioco viaggia alla velocita' della luce ed e' incontrollabile.
Problema scheda video (drivers)? gioco? oppure Processore? :confused:
molti dicono che lo fanno girare su high ...ma poi in realtà tengono attivata a medio l'impostazione più importante :asd: cioè quella dello "shader" :asd:
prova a tenere tutto su high con shader su medio e dimmi come va... ;)
io lo faccio girare tutto su high, non c'è impostazione che sia su medio
mi sono convinto che nn è l'ali....forse è la beta driver 7.10 RC3? nei 7.9 mi faceva gli artefatti con i beta no quindi hanno sistemato il 2d.... e se sistemandolo hanno sminchiato qualcos'altro dato che a me mi si resettava in 2d e nn in 3d?
adesso cmq ho messo su gli rc4...poi vi saprò dire
Prova ad avviare ati tool e visualizzare il 3d, se non ti appare nessuna finestra di warning riguardo all'alimentazione non c'entra l'alimentatore.
mordsiger
03-10-2007, 09:44
Prova ad avviare ati tool e visualizzare il 3d, se non ti appare nessuna finestra di warning riguardo all'alimentazione non c'entra l'alimentatore.
no no nessun warning... però se con atitool imposto la vgpu a 1,25 per dire ma la mette. dal monitor anche di rivatuner vedo lo switch di vgpu...ma quando modifico i mhz della gpu o delle ram e lo applico mi vanno su quelli e si resetta la vgpu a std.... baco di atitool sulla 2900 1Gb??????
io lo faccio girare tutto su high, non c'è impostazione che sia su medio
a che risoluzione?
TecnoWorld8
03-10-2007, 10:04
si e migliorato di qualcosina
adesso ho messo molte cose su medium cosi gira a 30 max e 20 minimo
cioè praticamente ti va come sulla mia x1800xt?!? non posso crederci, mi sa che devi riformattare il sistema, perchè ho sentito di gente che con la hd2900xt, con tutto su high, fa 40fps di media a 1680x1050...a meno che tu non abbia l'AA a 4x o cose del genere!
no no nessun warning... però se con atitool imposto la vgpu a 1,25 per dire ma la mette. dal monitor anche di rivatuner vedo lo switch di vgpu...ma quando modifico i mhz della gpu o delle ram e lo applico mi vanno su quelli e si resetta la vgpu a std.... baco di atitool sulla 2900 1Gb??????
Proverò a farlo anch'io stasera (non ora sono in ufficio) e ti farò sapere se mi succede la stessa cosa.
Mister Tarpone
03-10-2007, 10:27
cioè praticamente ti va come sulla mia x1800xt?!? non posso crederci, mi sa che devi riformattare il sistema, perchè ho sentito di gente che con la hd2900xt, con tutto su high, fa 40fps di media a 1680x1050...a meno che tu non abbia l'AA a 4x o cose del genere!
:confused: :confused: :confused:
ma daii... farà una 30ina di fps con tutto su high a 1680x1050 :asd: la 2900 è una bella schedozza ma NON è una 8800GTX.
Cmq negli interni è pobabile che ti faccia anche una 50ina di fps... ma negli esterni a quella risoluzione 40fps di media non li regge assolutamente imho.. :)
a che risoluzione?
1280x1024
ke driver mi consigliate x questa video....:confused:
vorrei sapere sia quelli x Xp32bit sia x windows vista 64bit
mi autoquoto plz... mi ritrovo con 40fps su need for speed most wanted :muro:
qualke consiglio
TecnoWorld8
03-10-2007, 10:34
:confused: :confused: :confused:
ma daii... farà una 30ina di fps con tutto su high a 1680x1050 :asd: la 2900 è una bella schedozza ma NON è una 8800GTX.
Cmq negli interni è pobabile che ti faccia anche una 50ina di fps... ma negli esterni a quella risoluzione 40fps di media non li regge assolutamente imho.. :)
boh, citavo ciò che è stato detto qui da alcuni utenti...nessuno sa confermare/smentire?
:confused: :confused: :confused:
ma daii... farà una 30ina di fps con tutto su high a 1680x1050 :asd: la 2900 è una bella schedozza ma NON è una 8800GTX.
Cmq negli interni è pobabile che ti faccia anche una 50ina di fps... ma negli esterni a quella risoluzione 40fps di media non li regge assolutamente imho.. :)
la 8800 gtx fa di + di quei frame, a 1280x1024 al chiuso fa 90 e all'aperto fa 45 di media con tutto a palla
Mister Tarpone
03-10-2007, 10:40
la 8800 gtx fa di + di quei frame, a 1280x1024 al chiuso fa 90 e all'aperto fa 45 di media con tutto a palla
45 fps all'aperto con una gtx vuole dire 30fps all'aperto con una 2900xt. a parità di risoluzione ed effetti. Imho ehh!!
E' così meno potente di una gtx questa scheda ?!?
E' così meno potente di una gtx questa scheda ?!?
non esageratamente, ma meno potente si
Indicando una percentuale approssimativa ?!?
mordsiger
03-10-2007, 11:04
Proverò a farlo anch'io stasera (non ora sono in ufficio) e ti farò sapere se mi succede la stessa cosa.
hai la 2900 da 1Gb? di che marca?
hai la 2900 da 1Gb? di che marca?
Sapphire da 512Mb
mordsiger
03-10-2007, 11:21
Sapphire da 512Mb
ho letto in giro che con le 512 ddr3 va bene mentre con la 1gb ddr4 no
ho letto in giro che con le 512 ddr3 va bene mentre con la 1gb ddr4 no
Ti farò sapere, potresti dirmi quando hai comprato la tua 2900 e quanto l'hai pagata.
Saluti
mordsiger
03-10-2007, 11:36
Ti farò sapere, potresti dirmi quando hai comprato la tua 2900 e quanto l'hai pagata.
Saluti
l'avrò presa un mesetto fa da tecnocomputer pagata prezzo da rivenditore quale sono... quindi 40-50 € in meno di quello che vedete voi al pubblico
Come hai rafrreddato la ram e mosfet della video?
Come sono le temperature (idle e full)?
Grazie!!
praticamente io ho smontato la scheda solo x metà lasciando la piastra su ram e mosfet e la ventola originale che rimane sempre al minimo e quindi non si sente visto che le temp ad acqua sono inferiori.
x quanto riguarda le temp con 25° nella stanza:
idle: 35°gpu e 45°la scheda (ram/mosfet)
full: 43°gpu e 52°la scheda(ram/mosfet)
+Lonewolf+
03-10-2007, 12:50
la 8800 gtx fa di + di quei frame, a 1280x1024 al chiuso fa 90 e all'aperto fa 45 di media con tutto a palla
15fps di distacco sono troppi...al max ci arrivi in overclock pesante
+Lonewolf+
03-10-2007, 12:56
allora non voglio ripeterlo x l'ennesima volta...
crysis può essere renderizzato in dx10 e con dettagli massimi modificando un file di configurazione!!! ho letto di gente che continua a chiederlo quindi posto anche qua...:)
Il Creativo
03-10-2007, 12:58
Non ridete, ma io mi sono installato:
Indiana Jones e la tomba dell'imperatore perke' e' uno dei pochi giochi dove vesto i panni di uno dei miei eroi preferiti e faccio scazottate.
Il problema e' che il gioco viaggia alla velocita' della luce ed e' incontrollabile.
Problema scheda video (drivers)? gioco? oppure Processore? :confused:
Solitamente questo problema è dovuto alla presenza del dual core congiuntamente a titoli un pò datati, devi provare ad eliminare uno dei due core per quanto riguarda la suddetta applicazione(indy), io solitamente per farlo apro il task manager mentre il gioco è in esecuzione poi col tasto destro clicco sul processo, lì c'è una voce(che non ricordo) che apre un menù con i due core selezionati, ne devi deselezionare uno... un altro metodo può essere quello di installare qualche fix rilasciato da intel per i suo dual core(io ho messo quello per AMD avendo l'opteron) o ancora puoi cercare patch riguardanti il gioco che corregganno il suddetto problema...
i mieri risultati su windows Vista 32 con tutte le impostazioni su High a 1680x1050 catalyst 7.9 hotfix sono questi:
parti chiuse......2007-10-03 13:47:03 - Crysis
Frames: 1997 - Time: 60000ms - Avg: 33.283 - Min: 22 - Max: 53
all'aperto........2007-10-03 13:51:20 - Crysis
Frames: 1494 - Time: 60000ms - Avg: 24.900 - Min: 20 - Max: 32
TecnoWorld8
03-10-2007, 13:10
i mieri risultati su windows Vista 32 con tutte le impostazioni su High a 1680x1050 catalyst 7.9 hotfix sono questi:
parti chiuse......2007-10-03 13:47:03 - Crysis
Frames: 1997 - Time: 60000ms - Avg: 33.283 - Min: 22 - Max: 53
all'aperto........2007-10-03 13:51:20 - Crysis
Frames: 1494 - Time: 60000ms - Avg: 24.900 - Min: 20 - Max: 32
caspita, pesantissimo...vuol dire che su very high, quando sarà selezionabile il DX10, non girerà bene :(
TecnoWorld8
03-10-2007, 13:12
Solitamente questo problema è dovuto alla presenza del dual core congiuntamente a titoli un pò datati, devi provare ad eliminare uno dei due core per quanto riguarda la suddetta applicazione(indy), io solitamente per farlo apro il task manager mentre il gioco è in esecuzione poi col tasto destro clicco sul processo, lì c'è una voce(che non ricordo) che apre un menù con i due core selezionati, ne devi deselezionare uno... un altro metodo può essere quello di installare qualche fix rilasciato da intel per i suo dual core(io ho messo quello per AMD avendo l'opteron) o ancora puoi cercare patch riguardanti il gioco che corregganno il suddetto problema...
la voce incriminata è l'affinità (Affinity) del processo con i cores ;)
raga come va stalker su questa vga? si gioca bene a 1280*1024 filtrato?
+Lonewolf+
03-10-2007, 13:34
raga come va stalker su questa vga? si gioca bene a 1280*1024 filtrato?
si gioca bene ma l'AA non si può attivare, nemmeno con le nvidia
+Lonewolf+
03-10-2007, 13:39
solo aniso?
si;)
TecnoWorld8
03-10-2007, 13:41
fatto sta che, se la pesantezza di questa beta rimane anche nella versione finale (a cui tra l'altro si aggiungeranno la fisica e gli effetti DX10) non credo che alcuna scheda attuale (se non quelle in SLI) riuscirà a farlo girare al massimo dettaglio e risoluzioni elevate...tantomento con AA attivo.
poi magari fanno il miracolo, ma dubito.
-Feanor-
03-10-2007, 14:17
Lone mi sono perso il tuo log della beta di crysis sul 3d...
postalo anche in questo magari..no..?? ;)
Alexkidd85
03-10-2007, 14:18
E' da tempo che non avvicinavo sul 3d rosso :D
Spero che sta scheda abbia messo le ali finalmente...
Comunque tecno,ormai penso che molti si stiano avvicinando ai 22" e che i 19" stiano diventando lo standard di un buon gamer,quindi resto un convinto esponente del "salviamo gli fps dall' AA al massimo :D" cioé a 1680,eviterei un 16x di AA quando già a 4x hai levigato abbastanza superfici che già prima erano levigate di loro :D
Quindi se crysis andrà bene ad aa4x o max aa8x mi starebbe più che bene :D
ninja970
03-10-2007, 14:37
una domanda "al volo": per questa scheda va bene un alimentatore Cooler Master 520W ?
se non hai 15 HD direi di sì...:D
ninja970
03-10-2007, 14:43
se non hai 15 HD direi di sì...:D
no, ne avrò solo 3 :D :D :D
halduemilauno
03-10-2007, 14:55
una domanda "al volo": per questa scheda va bene un alimentatore Cooler Master 520W ?
no, ne avrò solo 3 :D :D :D
e allora no. devi vedere quanti ampere eroga sui +12 volt.
;)
Quanto ci vuole sulla +12 di ampere per stare tranquilli ?!?
Quanto ci vuole sulla +12 di ampere per stare tranquilli ?!?
30A
halduemilauno
03-10-2007, 15:12
Quanto ci vuole sulla +12 di ampere per stare tranquilli ?!?
almeno 30 ampere. questo per una conf. diciamo normale se poi come l'amico hai tre dischi e in + ancora 4 ventole luci e lucette...
;)
ninja970
03-10-2007, 15:13
e allora no. devi vedere quanti ampere eroga sui +12 volt.
;)
Questi sono i dati che sono riuscito a reperire sugli amperaggi:
+3.3V: 25A
+5V: 20A
+3.3V/+5V: 191W
+12V 1: 19A
+12V 2: 19A
+12V 3: 19A
-12V: 0.8A
+5VSB: 3.5A
Va bene come ALI ? :confused:
halduemilauno
03-10-2007, 15:15
Questi sono i dati che sono riuscito a reperire sugli amperaggi:
+3.3V: 25A
+5V: 20A
+3.3V/+5V: 191W
+12V 1: 19A
+12V 2: 19A
+12V 3: 19A
-12V: 0.8A
+5VSB: 3.5A
Va bene come ALI ? :confused:
a certo che si ne hai 50.
;)
ninja970
03-10-2007, 15:17
a certo che si ne hai 50.
;)
ti ringrazio per la risposta e, scusa l'ignoranza (di elettronica non capisco una H :doh: ), perchè dici che quell'ali ne ha 50 ? Che somma devo fare ?
Il silverstone zeus 650w se la mangia... :D :sofico: :sofico:
halduemilauno
03-10-2007, 15:49
ti ringrazio per la risposta e, scusa l'ignoranza (di elettronica non capisco una H :doh: ), perchè dici che quell'ali ne ha 50 ? Che somma devo fare ?
devi sommare i 3 +12V. ma che in questo caso non fa 57 ma meno. ecco perchè ho detto 50. una volta lassie un'articolo che faceva da guida nella scelta dell'ali ed era cosi specificato si parlava dei valori di picco e di quelli reali erogati con stabilità e continuità.
;)
buongiorno!
vorrei chiedere a quanti hanno provato crysis beta, in possesso di 2900xt, che driver stanno usando e se ci sono hotfix appositi.
Ieri ho usato fraps ed ho registrato questo:
2007-10-02 19:59:38 - Crysis
Frames: 5426 - Time: 147938ms - Avg: 36.677 - Min: 11 - Max: 56
(config 2900xt, e6700, 2gb 800mhz)
grazie!
Free Gordon
03-10-2007, 15:58
con le ram a 2500 su 512bit il bandwitch risultante è ben 160 Gb/s !!!!
mentre a 256 è ovviamente la metà...quindi 80Gb/s
Di quei 160GB/s di banda che hai, la tua 2900 attualmente non ne sfrutta nemmeno la metà nella stra-grande maggioranza delle situazioni. ;)
E ci vorranno ancora mesi (e forse anni) perchè siano sfruttati appieno.
Questo vorrebbe dire, giochi che fanno amplissimo uso di shader complessi, rapporti alu:tex di 25:1, utilizzo di formati texture più pesanti ecc ecc...
Mister Tarpone
03-10-2007, 16:07
buongiorno!
vorrei chiedere a quanti hanno provato crysis beta, in possesso di 2900xt, che driver stanno usando e se ci sono hotfix appositi.
Ieri ho usato fraps ed ho registrato questo:
2007-10-02 19:59:38 - Crysis
Frames: 5426 - Time: 147938ms - Avg: 36.677 - Min: 11 - Max: 56
(config 2900xt, e6700, 2gb 800mhz)
grazie!
dettagli e risoluzione?? :confused:
Free Gordon
03-10-2007, 16:08
ATi si è accorta che con l'attuale architettura il divario tra 512 e 256 incide poco sulle prestazioni.
Non è una questione di architettura ma di come sono scritti software (giochi).
Più banda c'è meglio è ma si devono sfruttare le unità adatte ad impiegare questa banda.
Per quanto riguarda TU e letture e scritture varie, R600 ha banda a sufficienza per supportare tutto... (G80 non saprei...) e se lo shader core venisse sfruttato appieno potrebbe rendere il ringbus anche utile.
Ma ora come ora l'unica difficoltà è nell'ottimizzare gli accessi perchè attualmente non ci sono giochi che possano far leva sul grosso potere insito nello shader core di R600 e sfruttarlo appieno.
Li vedremmo magari se programmassero la fisica in GPU, se si iniziassero a sfruttare per bene queste dx10..ma per ora non si vede nulla di tutto ciò all'orizzonte.
mordsiger
03-10-2007, 16:35
Di quei 160GB/s di banda che hai, la tua 2900 attualmente non ne sfrutta nemmeno la metà nella stra-grande maggioranza delle situazioni. ;)
E ci vorranno ancora mesi (e forse anni) perchè siano sfruttati appieno.
Questo vorrebbe dire, giochi che fanno amplissimo uso di shader complessi, rapporti alu:tex di 25:1, utilizzo di formati texture più pesanti ecc ecc...
voi parlate x certo... ma finchè nn si vedono dei bench nn si può dire che i 512bit nn servono..fatemelo vedere con prove reali.... poi ,se nn li sfrutto, perchè da 2000(std) a 2500Mhz aumentano gli fps nei giochi e il punteggio dei vari 3dmark? se la banda che ha std è 128Gb/s e basta già e ne avanza così tanta perchè a 160Gb/s la scheda va di +??? dovrebbe segnare gli stessi risultati se fosse come dite...
Iantikas
03-10-2007, 17:53
voi parlate x certo... ma finchè nn si vedono dei bench nn si può dire che i 512bit nn servono..fatemelo vedere con prove reali.... poi ,se nn li sfrutto, perchè da 2000(std) a 2500Mhz aumentano gli fps nei giochi e il punteggio dei vari 3dmark? se la banda che ha std è 128Gb/s e basta già e ne avanza così tanta perchè a 160Gb/s la scheda va di +??? dovrebbe segnare gli stessi risultati se fosse come dite...
nn lo so ke prove hai fatto (sarei interessato cmq a vederle) ma dai test ke ho fatto io l'oc della ram nn porta a grandi aumenti di prestazioni anzi son proprio irrisori...
...le cifre esatte nn le ricordo + (cmq potremmo rifare vari test entrambi anke x approfondire meglio l'argomento) ma ricordo ke un aumento di 330MHZ porta ad un incremento nei test del 3dmark06 a 1680x1050 4xAA/16xAF pari a quello ke si ottiene con circa 25mhz di oc del core...
...da questo il pensare ke la banda ke la skeda ha a def. nella maggior parte dei casi è + ke sufficente alla GPU clokkata ai 743mhz d def...
...ciao
Il silverstone zeus 650w se la mangia... :D :sofico: :sofico:
già :O ;)
mordsiger
03-10-2007, 17:58
nn lo so ke prove hai fatto (sarei interessato cmq a vederle) ma dai test ke ho fatto io l'oc della ram nn porta a grandi aumenti di prestazioni anzi son proprio irrisori...
...le cifre esatte nn le ricordo + (cmq potremmo rifare vari test entrambi anke x approfondire meglio l'argomento) ma ricordo ke un aumento di 330MHZ porta ad un incremento nei test del 3dmark06 a 1680x1050 4xAA/16xAF pari a quello ke si ottiene con circa 25mhz di oc del core...
...da questo il pensare ke la banda ke la skeda ha a def. nella maggior parte dei casi è + ke sufficente alla GPU clokkata ai 743mhz d def...
...ciao
indubbiamente l'oc della gpu conta di + di quella delle ram... ma questo era così anche nella 1950xtx che avevo.
i test li ho fatti con fraps in nwn2 per il momento e con i 3dmark. adesso sono al lavoro e nn ho i risultati sotto mano cmq nn mancherò a postarli.
nn ho parlato di aumenti colossali ma cmq aumenti !!!
poi ho notato (anche nella 1950xtx) che a gpu std l'aumernto dei mhz delle ram conte per il tot%, mentre a gpu ipercloked lo stesso aumento delle ram conta di +
dettagli e risoluzione?? :confused:
a 1280x1024 con dettagli alti... sapete se ati ha pronto qualche driver o hotfix?
mordsiger
03-10-2007, 18:01
a 1280x1024 con dettagli alti... sapete se ati ha pronto qualche driver o hotfix?
tu che driver hai usato? hai provato i 7.10 RC4 ??
ninja970
03-10-2007, 18:03
Assodato il tipo di alimentatore necessario per la 2900XT mi sapreste consigliare un ALI che abbia anche il display frontale che indica l'assorbimento in Watt del sistema ? :help:
L'ho visto una volta a casa di un amico (aveva l'indicatore in digitale) ed era troppo figo :D , solo che non ricordo che modello era :(
tu che driver hai usato? hai provato i 7.10 RC4 ??
veramente io ho provato con gli ultimi drivers, i 7.9... ora ho visto che proprio su hu ci sono gli hotfix dei 7.9 ma nei problemi risolti non è fatta menzione alla beta di crysis
mordsiger
03-10-2007, 18:07
nn lo so ke prove hai fatto (sarei interessato cmq a vederle) ma dai test ke ho fatto io l'oc della ram nn porta a grandi aumenti di prestazioni anzi son proprio irrisori...
...le cifre esatte nn le ricordo + (cmq potremmo rifare vari test entrambi anke x approfondire meglio l'argomento) ma ricordo ke un aumento di 330MHZ porta ad un incremento nei test del 3dmark06 a 1680x1050 4xAA/16xAF pari a quello ke si ottiene con circa 25mhz di oc del core...
...da questo il pensare ke la banda ke la skeda ha a def. nella maggior parte dei casi è + ke sufficente alla GPU clokkata ai 743mhz d def...
...ciao
altra cosa... il bandwitch è espresso in gb/s quindi è una velocità e nn una quantità !!!
mi si può dire che un gioco sfrutta solo 400Mb di ram su 1Gb per es. ma che sfrutta tot gb/s nn capisco la logica !!
per questo se il proc butta per dire solo 1mb di texture sulle ram viaggia ad una determinata velocità.... se è inferiore viaggia + lento... come si fa a dire che si sfrutta solo tot gb/s??
nn ha senso secondo me......correggetemi se sbaglio.
se fosse come dite l'RV670 , soprattutto la versione clokkata a + di 800Mhz di gpu, dovrebbe essere superiore e nn di poco alla 2900xt....cosa che sinceramente io dubito
buongiorno!
vorrei chiedere a quanti hanno provato crysis beta, in possesso di 2900xt, che driver stanno usando e se ci sono hotfix appositi.
Ieri ho usato fraps ed ho registrato questo:
2007-10-02 19:59:38 - Crysis
Frames: 5426 - Time: 147938ms - Avg: 36.677 - Min: 11 - Max: 56
(config 2900xt, e6700, 2gb 800mhz)
grazie!
ciao, io ieri sera ho fatto questi:
parto con il log...
della beta3 di un certo gioco chiamato sis yrc (conoscete? no? meglio :asd:)
nda :sperem:
Interno del sottomarino (al chiuso quindi):
Frames, Time (ms), Min, Max, Avg
3738, 80414, 28, 82, 46.484
Esterno, nuotata, giretto per la vegetazione, etc
Frames, Time (ms), Min, Max, Avg
2599, 81182, 16, 46, 32.014
entrambi i benchmark sono fatti a 1280x1024 no AA e tutti i dettagli si HIGH (che è il massimo impostabile)
e continuo con il ridire che la grafica è stupenda... si lo so mi ripeto ma me ne sono innamorato :D
driver 7.9 hotfix
mordsiger
03-10-2007, 18:16
ciao, io ieri sera ho fatto questi:
driver 7.9 hotfix
provi con i 7.10 rc4?????
Iantikas
03-10-2007, 18:22
Assodato il tipo di alimentatore necessario per la 2900XT mi sapreste consigliare un ALI che abbia anche il display frontale che indica l'assorbimento in Watt del sistema ? :help:
L'ho visto una volta a casa di un amico (aveva l'indicatore in digitale) ed era troppo figo :D , solo che non ricordo che modello era :(
nn x fare il guasta feste ma il mio consiglio è "a ciascuno il suo"...lascia all'ali il compito di alimentare x bene il sistema e prenditi un "wattametro" x misurare il consumo dell'intero pc...oramai si trovano anke a meno d 20€ d buona qualità (sicuramente + precisi d quelli integrati nell'ali)...ciao
Iantikas
03-10-2007, 18:33
altra cosa... il bandwitch è espresso in gb/s quindi è una velocità e nn una quantità !!!
mi si può dire che un gioco sfrutta solo 400Mb di ram su 1Gb per es. ma che sfrutta tot gb/s nn capisco la logica !!
per questo se il proc butta per dire solo 1mb di texture sulle ram viaggia ad una determinata velocità.... se è inferiore viaggia + lento... come si fa a dire che si sfrutta solo tot gb/s??
nn ha senso secondo me......correggetemi se sbaglio.
se fosse come dite l'RV670 , soprattutto la versione clokkata a + di 800Mhz di gpu, dovrebbe essere superiore e nn di poco alla 2900xt....cosa che sinceramente io dubito
il mio discorso era riferito esclusivamente ad R600 e a quanto il clock della ram influenzi le prestazioni...
...x quanto riguarda HD2950XT e le prestzioni ke potrà avere nn mi pronuncio...cmq si potrebbe fare una prova x basarsi su qualcosa d + concreto...ipotizzando ke il core rimanga lo stesso identico d R600 (320sp, 16rop, 16tmu etc) basterebbe prendere una XT è clokkarla a 825mhz sul core e 1260mhz sulla ram in modo da avere gli 80gb/s della HD2950XT...e vederne le prestazioni se superiori o inferiori a quelle di una HD2900XT cloccata a 743/1650mhz...
...nn saranno x forza d cose le vere prestazioni d RV670 ma almeno ci si potrà fare un idea e nn basarsi proprio sul nulla...
...anzi ora faccio qualke test :D ...ciao
mordsiger
03-10-2007, 18:37
il mio discorso era riferito esclusivamente ad R600 e a quanto il clock della ram influenzi le prestazioni...
...x quanto riguarda HD2950XT e le prestzioni ke potrà avere nn mi pronuncio...cmq si potrebbe fare una prova x basarsi su qualcosa d + concreto...ipotizzando ke il core rimanga lo stesso identico d R600 (320sp, 16rop, 16tmu etc) basterebbe prendere una XT è clokkarla a 825mhz sul core e 1260mhz sulla ram in modo da avere gli 80gb/s della HD2950XT...e vederne le prestazioni se superiori o inferiori a quelle di una HD2900XT cloccata a 743/1650mhz...
...nn saranno x forza d cose le vere prestazioni d RV670 ma almeno ci si potrà fare un idea e nn basarsi proprio sul nulla...
...anzi ora faccio qualke test :D ...ciao
insomma....nn è proprio la stessa cosa.....cmq... una prova che si può fare.... facci sapere !!!
leoneazzurro
03-10-2007, 19:22
altra cosa... il bandwitch è espresso in gb/s quindi è una velocità e nn una quantità !!!
mi si può dire che un gioco sfrutta solo 400Mb di ram su 1Gb per es. ma che sfrutta tot gb/s nn capisco la logica !!
per questo se il proc butta per dire solo 1mb di texture sulle ram viaggia ad una determinata velocità.... se è inferiore viaggia + lento... come si fa a dire che si sfrutta solo tot gb/s??
nn ha senso secondo me......correggetemi se sbaglio.
se fosse come dite l'RV670 , soprattutto la versione clokkata a + di 800Mhz di gpu, dovrebbe essere superiore e nn di poco alla 2900xt....cosa che sinceramente io dubito
bandwidth non bandwitch
band -> banda width -> larghezza quinsi bansdwidth -> larghezza di banda (intesa come banda passante della memoria)
come dici è una velocità, ma come un'automobile ha una velocità massima, anche una GPU ha una "velocità massima" della memoria che viene misurata tramite la banda passante, in pratica è il massimo numero di dati che possono essere trasferiti nell'unità di tempo. Ora, il concetto di "sfruttamento della banda" è il seguente: una GPU prende i dati dalla memoria video (texture, vertici, ecc.), li elabora e li scrive nuovamente in memoria. Ora ci possono essere due casi: nel primo (GPU limited) la GPU ci mette parecchio tempo per elaborare i dati, per cui le letture e le scritture rimangono in "attesa" che la GPU finisca il suo lavoro. In questo caso si parla di "non sfruttamento della banda passante" poichè nell'elaborazione non viene sfruttata la velocità massima che la memoria permetterebbe. Nel caso opposto potrebbe essere la GPU ad essere relativamente più veloce nell'elaborare i dati di quanto essi arrivino dalla memoria (es. potrebbero esserci dati di grosse dimensioni e/o calcoli molto semplici da eseguire) ed in questo caso si è in una condizione di "limitazione da banda passante", ossia la GPU potrebbe andare più veloce se arrivassero più dati dalla memoria.
Iantikas
03-10-2007, 19:29
insomma....nn è proprio la stessa cosa.....cmq... una prova che si può fare.... facci sapere !!!
test fatti e devo dire ke son interessanti...
...come test ho scelto il 3dmark06 (:oink: ) x il fatto ke si sa come son fatti i singoli test dove nei primi due test vi è uno scenario + "texture limited" (sopratutto nel primo) mentre negli utlimi due uno scenario + "shader limited" (sopratutto nell'ultimo...e questo conviene tenerlo presente mentre si leggono i vari risultati)...come ris x evitare d incappare in scenari cpu limited ho scelto solo 1680x1050 facendo i 4 test prima senza filtri poi con 4xAA/16xAF...
...i risultati sono della ipotetica HD2950XT a 825mhz con 80gb/s e della HD2900XT clokkata d def. a 743mhz con 105.6gb/s...
1680x1050 NO AA/AF:
?HD2950XT? (825mhz - 80gb/s) -> sm2.0 4332 (33.005...39.201) / sm3.0 4584 (42.776...48.898)
HD2900XT (743mhz- 105.6gb/s) -> sm2.0 4241 (32.433...38.246) / sm3.0 4499 (41.187...48.786)
1680x1050 4xAA/16xAF:
?HD2950XT? (825mhz - 80gb/s) -> sm2.0 2601 (20.884...22.466) / sm3.0 2522 (26.114...24.330)
HD2900XT (743mhz- 105.6gb/s) -> sm2.0 2509 (20.196...21.628) / sm3.0 2531 (25.407...25.204)
...si nota subito ke i risultati son MOLTO simili ma c'è un lieve margine d vantaggio della ipotetica HD2950XT (ke senza filtri è sempre lievemente superiore)...a parte in un caso ossia nel sm3.0 a 1680x1050 4xAA/16xAF dove la HD2900XT riesce a spuntare un punteggio di pokissimo superiore e guardando i risultati dei singoli test si nota ke sta sotto nel primo test degli sm3.0 ma sta sopra nel secondo (quello + "shader limited")...
...e subito mi son balzate alle memroia le slide publicitarie ke si vedevano prima ke R600 fosse presentata e di come affermavano ke il bus a 512bit e la banda ke ne scaturiva fossero particolarmente utili con HDR (sopratutto a 128bit) e in apllicazioni "shader intensive"...e a giudicare da questi test probabilmente c'avevano ragione...
...cmq sempre tenendo presente ke se anke il core d RV670 dovesse essere identico l'utilizzo di un bus a 256bit diverso da quello d R600 fa si ke questi test abbiano un utilità molto limitata nell'esprimere quelle ke potranno essere le reali perfoamcne d RV670...
...+ tardi magari aggiungo i test della hd2900xt in oc...ciao
p.s.: dimenticavo...si nota anke un altra cosa...l'ipotetica hd2950xt con i filtri presenta un punteggio nel sm2.0 superiore a quello sm3.0...cosa ke nn succede mai, qualunque impo si usi con la hd2900xt ke presenta sempre un punteggio sm2.0 inferiore a quello sm3.0...
EDIT: con la skeda in oc ->
1680x1050 4xAA/16xAF:
870mhz - 128gb/s -> sm2.0 2922 (23.546..25.144) / sm3.0 2866 (28.845...28.477)
Free Gordon
03-10-2007, 21:49
ragazzi una cosa: ma quando occate la scheda, per provare la stabilità, quandi 3dmark 06 gli fate fare? uno basta, e soprattutto se lo faccio fare a step di 20mhz per volta, è troppo?
è troppo poco.
servono ore per testare un oc.
Free Gordon
03-10-2007, 22:16
45 fps all'aperto con una gtx vuole dire 30fps all'aperto con una 2900xt. a parità di risoluzione ed effetti. Imho ehh!!
Ma sono dati più o meno reali?
Perchè sennò queste affermazioni hanno proprio poco senso eh... :fagiano: io direi che molti giochi già ora ti smentiscono.
desmacker
03-10-2007, 22:26
test fatti e devo dire ke son interessanti...
Non potresti inserire anche il test 1680x1050 NoAA/16xAF e 4xAA/NoAF se possibile, così riesco a capire meglio il comportamento della GPU a queste risoluzioni.
Mister Tarpone
03-10-2007, 22:27
Ma sono dati più o meno reali?
Perchè sennò queste affermazioni hanno proprio poco senso eh... :fagiano: io direi che molti giochi già ora ti smentiscono.
ma dove??? mi dici un gioco dove la 2900 e uguale o sopra una GTX???
dai eh!! :) ora non iniziamo a dire che è a livello di quest'ultima per favore ;)non è assolutamente una brutta scheda!! per carità!! ma non è una GTX ;)
Io cmq ho letto di prestazioni veramente ottime con Crysis nel thread di questa scheda:
http://www.hwupgrade.it/forum/showthread.php?t=1326385&page=719
e l'utente che ha testato la beta non mi sembra assolutamente il tipo che spara ca22ate ;)
ma dove??? mi dici un gioco dove la 2900 e uguale o sopra una GTX???
dai eh!! :) ora non iniziamo a dire che è a livello di quest'ultima per favore ;)non è assolutamente una brutta scheda!! per carità!! ma non è una GTX ;)
Io cmq ho letto di prestazioni veramente ottime con Crysis nel thread di questa scheda:
http://www.hwupgrade.it/forum/showthread.php?t=1326385&page=719
e l'utente che ha testato la beta non mi sembra assolutamente il tipo che spara ca22ate ;)
ne ho uno... bioshock in dx9, dove la hd900xt va piu di una ultra :Prrr:
TecnoWorld8
03-10-2007, 23:36
ne ho uno... bioshock in dx9, dove la hd900xt va piu di una ultra :Prrr:
con i driver più recenti si può forzare l'AA o si deve sempre rinominare l'eseguibile? quando si decidono invece ad ottimizzare i driver per vista?
Iantikas
04-10-2007, 00:14
ma dove??? mi dici un gioco dove la 2900 e uguale o sopra una GTX???
dai eh!! :) ora non iniziamo a dire che è a livello di quest'ultima per favore ;)non è assolutamente una brutta scheda!! per carità!! ma non è una GTX ;)
così su due piedi bioshock, MoH:A, R6V, CoH...tutti in dx9 su XP...cmq la GTX in generale è superiore...ciao
Iantikas
04-10-2007, 00:15
con i driver più recenti si può forzare l'AA o si deve sempre rinominare l'eseguibile? quando si decidono invece ad ottimizzare i driver per vista?
se i driver + recenti ancora nn sono usciti è impossibile ke la situazione sia cambiata...appea escono i 7.10 vedremo se l'abilitano direttamente da CCC come x oblivion, ma ho il presentimento ke ciò nn accadrà mai...ciao
TecnoWorld8
04-10-2007, 00:42
se i driver + recenti ancora nn sono usciti è impossibile ke la situazione sia cambiata...appea escono i 7.10 vedremo se l'abilitano direttamente da CCC come x oblivion, ma ho il presentimento ke ciò nn accadrà mai...ciao
parlavo dei 7.10 RC4, ma dalla tua risposta deduco sia un no :( peccato. forzandolo con il cambio del nome dell'eseguibile si perde in prestazioni?
Mister Tarpone
04-10-2007, 00:48
se i driver + recenti ancora nn sono usciti è impossibile ke la situazione sia cambiata...appea escono i 7.10 vedremo se l'abilitano direttamente da CCC come x oblivion, ma ho il presentimento ke ciò nn accadrà mai...ciao
ora non essere pessimista... :D ;)
Iantikas
04-10-2007, 01:01
parlavo dei 7.10 RC4, ma dalla tua risposta deduco sia un no :( peccato. forzandolo con il cambio del nome dell'eseguibile si perde in prestazioni?
nn lo so quanto si perde xkè quando ho rinominato l'exe nn ho fatto test senza AA x compararli a quelli con exe originale ma ho sempre usato l'AA attivo (domani cmq vedo d farli insieme agli altri test ke mi ha kisto desmacker)...cmq anke se c fosse una perdita il problema nn si pone xkè cmq ce n'è x giocare a 1680x1050 4xAA/16xAF con un framerate medio sui 60/65fps...
...ciao
è troppo poco.
servono ore per testare un oc.
:mbe: azzo più di quanto mi aspettassi.
va be domenica verdo cosa riesco a fare.
Grazie anche a te ;)
@Mister Tarpone: è vero la 2900 nn raggiungerà mai i livelli della GTX, questo è un dato di fatto, soprattutto se si attiva AA, però considera che ultimamente con gli ultimi driver si è arrivati in una situazione dove molte volte il divario 2900XT-GTX è minimo; sempre in teste quest'ultima, però cioè se la 2900XT mi fa 3 o 4 fps in meno, la vita nn mi cambia (e a me personalmente anche se me ne fa 20 ;)).
:mbe: azzo più di quanto mi aspettassi.
va be domenica verdo cosa riesco a fare.
Grazie anche a te ;)
@Mister Tarpone: è vero la 2900 nn raggiungerà mai i livelli della GTX, questo è un dato di fatto, soprattutto se si attiva AA, però considera che ultimamente con gli ultimi driver si è arrivati in una situazione dove molte volte il divario 2900XT-GTX è minimo; sempre in teste quest'ultima, però cioè se la 2900XT mi fa 3 o 4 fps in meno, la vita nn mi cambia (e a me personalmente anche se me ne fa 20 ;)).
guarda nella mia ormai quasi lunga carriera di oc(ho iniziato smandruppando un P200mmx e una voodoo3 2000 hihihi unreal torunament 99 con p200@250mhz e v3 da 144/144@166/166) ho trovato il test perfetto per vedese se l'oc è stabile con poco tempo.
come hai visto fare un loop di 3dmark vuol dire far fare un giro alla vga 1 test e qualche secondo di riposo poi parte un altro test.
questo vorrebbe dire alla vga fargli fare qualche secondo di riposo tra un test ed un altro rendendo il loop di un decina di 3dmark oltre che noioso anche poco efficacie.
allora io ho notato nei vari 3dmark 2test pesanti che fanno saltare subito fuori i problemi se ce ne sono.
allora metodo lungo
avvia il 3dmark03 seleziona tutti i gametest, non i cpu test, e nelle feature test seleziona solo il test Ragtroll.
ora fai partire un loop di 5 3dmark03 e osservi solo il ragtroll quando passa.
se li nn ci sono artefatti allora stai ok. se invece li ci sono artefatti ma negli altri test no allora devi abbassare le frequenze.
se no metodo ancora + veloce!
apri il 3dmark06 e selezioni l'unico test DEEP FREZE e lo metti in loop un 10-15 volte.
è il test + rapido ma che scalda la gpu + di tutti gli altri test messi insieme.
se esce viva da questo loop è stabile.
solo che devi stare incollato davanti al pc per tutti i lopp xè purtroppo a meno di oc eccessivi che riempiono lo schermo di punti. se sballa qualce texture sullo sfondo bianco non sempre si vedono.
se no c'è il terzo test + divertente.:D
imposti le tue frequenze, fai una passata di 3dmark05 o 06
se finisce il test senza artefatti, bèh carichi io tuo gioco preferito ed inizzi a giocare:D :D
sessioni sostenute di 1 o 2 ore e vedi se nn ti da artefatti allora la vga è ok:D :D :D
personalmente dei 3 cmq io preferisco sempre i 10 loop di deep freze anche se il terzo metodo lo uso sempre con piacere:D :D
Iantikas
04-10-2007, 07:37
:mbe: azzo più di quanto mi aspettassi.
va be domenica verdo cosa riesco a fare.
Grazie anche a te ;)
@Mister Tarpone: è vero la 2900 nn raggiungerà mai i livelli della GTX, questo è un dato di fatto, soprattutto se si attiva AA, però considera che ultimamente con gli ultimi driver si è arrivati in una situazione dove molte volte il divario 2900XT-GTX è minimo; sempre in teste quest'ultima, però cioè se la 2900XT mi fa 3 o 4 fps in meno, la vita nn mi cambia (e a me personalmente anche se me ne fa 20 ;)).
io x testare l'oc della skeda faccio così...prima cerco il limite del core...poi cerco il limite della ram...x cercarli faccio un "veloce" loop da 5 d deep freeze o firefly forest...quando trovo le max freq ke reggono con questo test apro atitool e faccio 30min d "scan for artifact" seguiti da 30min d "sow 3drealtime"...se le freq reggono anke questo test faccio una sessione di un paio d'ore d gioco...e se reggono anke questo vuo dire ke reggono tutto :D ...
...il test + pesante tra questi 3 qualunque impo uso al 3dmark e aldilà del gioco rimane sempre atitool (me ne accorgo dalla voce "voltage regulator current" nel monitoring d rivatuner dove con l'oc ke tengo con il 3dmark il valore oscilla tra i 66/68...con gioki pesanti tipo bioshock/stalker tra 68/71...mentre con atitool si pone fisso a 74 con "scan for artifact" e 78 con "show 3d realtime"...
...ciao
ho letto in giro che con le 512 ddr3 va bene mentre con la 1gb ddr4 no
I problemi ci sono anche sulla 512Mb.
Con la mia scheda se setto prima il voltaggio e dopo le frequenze, quest'ultima operazione mi riporta la tensione al valore originale. Invertendo le operazioni riesco a modificare frequenze (prima) e voltaggio gpu (dopo).
Un'altro problema riguarda il tasto default, se clicco su questo tasto, ati tool mi porta sia la gpu sia la ram a 500 Mhz.:confused:
Saluti
Qualcuno mi sa dire quali sono le temepature massime raggiungibili senza rovinare la scheda?
mordsiger
04-10-2007, 08:48
I problemi ci sono anche sulla 512Mb.
Con la mia scheda se setto prima il voltaggio e dopo le frequenze, quest'ultima operazione mi riporta la tensione al valore originale. Invertendo le operazioni riesco a modificare frequenze (prima) e voltaggio gpu (dopo).
Un'altro problema riguarda il tasto default, se clicco su questo tasto, ati tool mi porta sia la gpu sia la ram a 500 Mhz.:confused:
Saluti
si ma per es. io sono a 890 vstd, se metto a 950 e applico mi si blocca tutto e nn ce la faccio a mettere il voltaggio, dovrei trovare il valore massimo per cui se applico nn freeza e poi sistemo il voltaggio ma è una soluzione che va bene solo al limite per fare una benchata, anche perchè se salvo un profilo e ci includo sia frequenze che voltaggi cmq i voltaggi nn li carica.
mordsiger
04-10-2007, 09:01
bandwidth non bandwitch
band -> banda width -> larghezza quinsi bansdwidth -> larghezza di banda (intesa come banda passante della memoria)
come dici è una velocità, ma come un'automobile ha una velocità massima, anche una GPU ha una "velocità massima" della memoria che viene misurata tramite la banda passante, in pratica è il massimo numero di dati che possono essere trasferiti nell'unità di tempo. Ora, il concetto di "sfruttamento della banda" è il seguente: una GPU prende i dati dalla memoria video (texture, vertici, ecc.), li elabora e li scrive nuovamente in memoria. Ora ci possono essere due casi: nel primo (GPU limited) la GPU ci mette parecchio tempo per elaborare i dati, per cui le letture e le scritture rimangono in "attesa" che la GPU finisca il suo lavoro. In questo caso si parla di "non sfruttamento della banda passante" poichè nell'elaborazione non viene sfruttata la velocità massima che la memoria permetterebbe. Nel caso opposto potrebbe essere la GPU ad essere relativamente più veloce nell'elaborare i dati di quanto essi arrivino dalla memoria (es. potrebbero esserci dati di grosse dimensioni e/o calcoli molto semplici da eseguire) ed in questo caso si è in una condizione di "limitazione da banda passante", ossia la GPU potrebbe andare più veloce se arrivassero più dati dalla memoria.
appunto, io da 743mhz di gpu std lo tengo a 890Mhz e quando arriverà la nuova ver. di atitool che mi fa overvoltare andrò oltre 900mhz... quindi un aumento della banda può fare solo che bene.
test fatti e devo dire ke son interessanti...
...come test ho scelto il 3dmark06 (:oink: ) x il fatto ke si sa come son fatti i singoli test dove nei primi due test vi è uno scenario + "texture limited" (sopratutto nel primo) mentre negli utlimi due uno scenario + "shader limited" (sopratutto nell'ultimo...e questo conviene tenerlo presente mentre si leggono i vari risultati)...come ris x evitare d incappare in scenari cpu limited ho scelto solo 1680x1050 facendo i 4 test prima senza filtri poi con 4xAA/16xAF...
...i risultati sono della ipotetica HD2950XT a 825mhz con 80gb/s e della HD2900XT clokkata d def. a 743mhz con 105.6gb/s...
1680x1050 NO AA/AF:
?HD2950XT? (825mhz - 80gb/s) -> sm2.0 4332 (33.005...39.201) / sm3.0 4584 (42.776...48.898)
HD2900XT (743mhz- 105.6gb/s) -> sm2.0 4241 (32.433...38.246) / sm3.0 4499 (41.187...48.786)
1680x1050 4xAA/16xAF:
?HD2950XT? (825mhz - 80gb/s) -> sm2.0 2601 (20.884...22.466) / sm3.0 2522 (26.114...24.330)
HD2900XT (743mhz- 105.6gb/s) -> sm2.0 2509 (20.196...21.628) / sm3.0 2531 (25.407...25.204)
...si nota subito ke i risultati son MOLTO simili ma c'è un lieve margine d vantaggio della ipotetica HD2950XT (ke senza filtri è sempre lievemente superiore)...a parte in un caso ossia nel sm3.0 a 1680x1050 4xAA/16xAF dove la HD2900XT riesce a spuntare un punteggio di pokissimo superiore e guardando i risultati dei singoli test si nota ke sta sotto nel primo test degli sm3.0 ma sta sopra nel secondo (quello + "shader limited")...
...e subito mi son balzate alle memroia le slide publicitarie ke si vedevano prima ke R600 fosse presentata e di come affermavano ke il bus a 512bit e la banda ke ne scaturiva fossero particolarmente utili con HDR (sopratutto a 128bit) e in apllicazioni "shader intensive"...e a giudicare da questi test probabilmente c'avevano ragione...
...cmq sempre tenendo presente ke se anke il core d RV670 dovesse essere identico l'utilizzo di un bus a 256bit diverso da quello d R600 fa si ke questi test abbiano un utilità molto limitata nell'esprimere quelle ke potranno essere le reali perfoamcne d RV670...
...+ tardi magari aggiungo i test della hd2900xt in oc...ciao
p.s.: dimenticavo...si nota anke un altra cosa...l'ipotetica hd2950xt con i filtri presenta un punteggio nel sm2.0 superiore a quello sm3.0...cosa ke nn succede mai, qualunque impo si usi con la hd2900xt ke presenta sempre un punteggio sm2.0 inferiore a quello sm3.0...
EDIT: con la skeda in oc ->
1680x1050 4xAA/16xAF:
870mhz - 128gb/s -> sm2.0 2922 (23.546..25.144) / sm3.0 2866 (28.845...28.477)
ottimo lavoro Iantikas... ora ci vuole una prova per gli overclocker !!!!
mi spiego provare a gpu max clock e ram a 80gb/s. che poi è il succo della questione, io valuto sempre i risultati delle vga in max overclock che possono tenere in daily.
se l'rc670 va di + con le vga std ma in overclock la 2900 prende il volo allora io scelgo la 2900 !
poi + che i 3dmark si potrebbero fare delle prove con i giochi in reale condizione di utilizzo, cioà aa+as+hdr+texture high+ombre+(nel mio caso) 1600x1200.
e secondo me mi ripeto ancora i 512bit si fanno sentire !!
ninja970
04-10-2007, 09:31
@Mordsiger
Ho visto che hai la versione da 1GB di memoria. E' quella della 3DClub ? Ti sentiresti di consigliarla al posto della "standard" da 512MB ?
mordsiger
04-10-2007, 09:35
@Mordsiger
Ho visto che hai la versione da 1GB di memoria. E' quella della 3DClub ? Ti sentiresti di consigliarla al posto della "standard" da 512MB ?
si è quella della 3dclub, io personalmente la consiglio, diciamo che con 1gb di ram si è a posto anche con giochi futuri sarei curioso di sapere per es. quanta ram video succhia la beta 3 di crisys con tutto al max filtri compresi! (provate con il monitor di rivatuner, io nn sono ancora riuscito a scaricarla)
in + come hai visto in firma si riesce ad arrivare ad alte frequenze grazie alle ddr4
Scrambler77
04-10-2007, 09:45
A proposito di DX10:
http://www.hothardware.com/articles/The_State_of_DirectX_10__Image_Quality__Performance/?page=1
Chiedo venia se è stata già postata...
Quoziente
04-10-2007, 10:06
A proposito di DX10:
http://www.hothardware.com/articles/The_State_of_DirectX_10__Image_Quality__Performance/?page=1
Chiedo venia se è stata già postata...
Ottimo articolo! Non credo sia già stato postato.
Cmq conferma che le DX10 sono una bella mattonata in termini di fps, sia per le 8800 che per le 2900... Che poi sia colpa dei drivers, delle architetture delle schede o delle DX10 stesse è un bel mistero...
mordsiger
04-10-2007, 10:36
@Mordsiger
Ho visto che hai la versione da 1GB di memoria. E' quella della 3DClub ? Ti sentiresti di consigliarla al posto della "standard" da 512MB ?
vi dirò di +, stò chiacchierando su un altro thread , quello ci crisys, e li hanno fatto prove varie con giochi e hanno minitorato la mem video utilizzata.
dunque con bioshock sono arrivati a 670Mb, in crisys è in lavorazione, poi vi dirò.
in nwn2 provato da me supero i 500....
...quindi prendere la 1Gb di ram nn è una brutta scelta...anzi...poi quando ci sono le dx 10 che come si è visto sono pese con hdr, ombre, aa , af, vsync etc...etc... avere 1gb di roba pronta che gira a 160gb/s mi da un non so che di sicurezza ulteriore
si ma per es. io sono a 890 vstd, se metto a 950 e applico mi si blocca tutto e nn ce la faccio a mettere il voltaggio, dovrei trovare il valore massimo per cui se applico nn freeza e poi sistemo il voltaggio ma è una soluzione che va bene solo al limite per fare una benchata, anche perchè se salvo un profilo e ci includo sia frequenze che voltaggi cmq i voltaggi nn li carica.
Non ho ancora provato a salvare dei settaggi e poi riprenderli, ma sono sicuro che rispetto alle schede da 1Gb non c'è alcuna differenza.
Ancora non ho provato a mantenere la scheda in overclock, mi fanno un pò paura le temperature a cui arriva (90°C), ero abituato con la X1800XL a 60° in full e non in idle. Avevo chiesto di postare un pò di temperature e soprattutto se qualcuno conosce la temperatura massima raggiugibile senza friggere la scheda.
Saluti
mordsiger
04-10-2007, 11:04
Non ho ancora provato a salvare dei settaggi e poi riprenderli, ma sono sicuro che rispetto alle schede da 1Gb non c'è alcuna differenza.
Ancora non ho provato a mantenere la scheda in overclock, mi fanno un pò paura le temperature a cui arriva (90°C), ero abituato con la X1800XL a 60° in full e non in idle. Avevo chiesto di postare un pò di temperature e soprattutto se qualcuno conosce la temperatura massima raggiugibile senza friggere la scheda.
Saluti
se la vuoi tenere in overclock devi per forza o cambiare dissy o buttare in 3d la ventola ad alti regimi. se opti per la seconda la vga diventa un fon quindi se hai i caopelli bagnati ne puoi approfittare.
oppure water !!! 39° idle e 48° full a 890Mhz!
vi dirò di +, stò chiacchierando su un altro thread , quello ci crisys, e li hanno fatto prove varie con giochi e hanno minitorato la mem video utilizzata.
dunque con bioshock sono arrivati a 670Mb, in crisys è in lavorazione, poi vi dirò.
in nwn2 provato da me supero i 500....
...quindi prendere la 1Gb di ram nn è una brutta scelta...anzi...poi quando ci sono le dx 10 che come si è visto sono pese con hdr, ombre, aa , af, vsync etc...etc... avere 1gb di roba pronta che gira a 160gb/s mi da un non so che di sicurezza ulteriore
Sono perfettamente daccordo con te, devo comunque dire francamente che mi sono rivolto verso la 2900xt per contenere la spesa (350 euro sono comunque una bella spesa), prima di spendere 500 euro e passa per una 2900xt da 1Gb, farei un serio pensierino su una 8800gtx.
Parliamoci chiaro spendere 500 euro di scheda grafica ogni 2 anni solo per giocare, mi sembrano veramente troppi.
Saluti
A proposito di DX10:
http://www.hothardware.com/articles/The_State_of_DirectX_10__Image_Quality__Performance/?page=1
Chiedo venia se è stata già postata...
nelle risoluzioni + consone x queste schede, cioè 1600x1200, cioè quella che + si avvicina a 1680x1050 dei 22" in circolazione, vince sempre la 8800 gtx, xò vedo che migliora sta 2900xt
se la vuoi tenere in overclock devi per forza o cambiare dissy o buttare in 3d la ventola ad alti regimi. se opti per la seconda la vga diventa un fon quindi se hai i caopelli bagnati ne puoi approfittare.
oppure water !!! 39° idle e 48° full a 890Mhz!
Ci sto lavorando, appena posso passo anch'io al liquido. Vorrei però trovare un kit da poter montare in un cabinet desktop, e soprattutto di facile installazione.
Saluti
mordsiger
04-10-2007, 11:11
Sono perfettamente daccordo con te, devo comunque dire francamente che mi sono rivolto verso la 2900xt per contenere la spesa (350 euro sono comunque una bella spesa), prima di spendere 500 euro e passa per una 2900xt da 1Gb, farei un serio pensierino su una 8800gtx.
Parliamoci chiaro spendere 500 euro di scheda grafica ogni 2 anni solo per giocare, mi sembrano veramente troppi.
Saluti
io sono un rivenditore e dal mio grossista l'ho pagata € 370.... e la 512 la pago 290... per 80 euro sono sempre io....ops ho rivelato i miei prezzi.... poi cmq al pubblico costa € 469 e tralaltro è cresciuta perchè quando l'ho presa io un mesetto fa costava al pubblico 440
mordsiger
04-10-2007, 11:12
Ci sto lavorando, appena posso passo anch'io al liquido. Vorrei però trovare un kit da poter montare in un cabinet desktop, e soprattutto di facile installazione.
Saluti
io ho preso nn un kit ma tutto separato cn un radiatore che sta al posto della ventola del case da 120mm... poi facendo anche la cpu ne ho aggiunto un altro al di fuori... ma se fai solo la vga basta già quello
ninja970
04-10-2007, 11:14
vi dirò di +, stò chiacchierando su un altro thread , quello ci crisys, e li hanno fatto prove varie con giochi e hanno minitorato la mem video utilizzata.
dunque con bioshock sono arrivati a 670Mb, in crisys è in lavorazione, poi vi dirò.
in nwn2 provato da me supero i 500....
...quindi prendere la 1Gb di ram nn è una brutta scelta...anzi...poi quando ci sono le dx 10 che come si è visto sono pese con hdr, ombre, aa , af, vsync etc...etc... avere 1gb di roba pronta che gira a 160gb/s mi da un non so che di sicurezza ulteriore
OK grazie dell'info, terrò presente ;)
io ho preso nn un kit ma tutto separato cn un radiatore che sta al posto della ventola del case da 120mm... poi facendo anche la cpu ne ho aggiunto un altro al di fuori... ma se fai solo la vga basta già quello
Se passo al liquio vorrei fare entrambe cpu e gpu, comunque per contenere le dimensioni dell'impianto potrei anche fermarmi alla sola scheda video. Sul mio athlon 64 4000+ ho montato uno zalman 9500, ti risulta compatibile con gli intel dualcore (vorrei passare ad un intel 6850), è abbastanza silenzioso?
Per quanto riguarda la differenza di costo fra le due versioni, avevo letto dei 500 euro su alcune recensioni, solo adesso vedo che la differenza è effettivamentedi molto più contenuta.:(
mordsiger
04-10-2007, 11:37
Se passo al liquio vorrei fare entrambe cpu e gpu, comunque per contenere le dimensioni dell'impianto potrei anche fermarmi alla sola scheda video. Sul mio athlon 64 4000+ ho montato uno zalman 9500, ti risulta compatibile con gli intel dualcore (vorrei passare ad un intel 6850), è abbastanza silenzioso?
Per quanto riguarda la differenza di costo fra le due versioni, avevo letto dei 500 euro su alcune recensioni, solo adesso vedo che la differenza è effettivamentedi molto più contenuta.:(
nn lo so se è compatibile... come dissy in se si...però bisogna vedere se in dotazione ti hanno dato gli attacchi per il soket 775.
il 6850 è un proc freddissimo quindi già con quel dissy dovresti riuscire a portarlo a 3,8Ghz... ovviamente tutto ad acqua hai un silenzio ti tomba... io ho ventole nexus da 1000rpm sui radiatori e sono stato attento anche a quella dell'ali che a volte ho beccato alcuni che facevano + casino di tutto il pc... e ti assicuro che a volte accendo il pc anche quando è già acceso perchè nn mi accorgo che lo sia (quando il monitor si spegne dopo tot min ovviamente....nn sono rincoglionito !!!)
ho ricevuto dall'altro thread la notizia che cryysysy vuole 540mb di ram video
webbuffa
04-10-2007, 13:01
ìho ricevuto dall'altro thread la notizia che cryysysy vuole 540mb di ram video
:eek: :eek: O mamma miaaaaaaa!
Free Gordon
04-10-2007, 13:05
ma dove??? mi dici un gioco dove la 2900 e uguale o sopra una GTX???
dai eh!! :) ora non iniziamo a dire che è a livello di quest'ultima per favore ;)non è assolutamente una brutta scheda!! per carità!! ma non è una GTX ;)
Io cmq ho letto di prestazioni veramente ottime con Crysis nel thread di questa scheda:
http://www.hwupgrade.it/forum/showthread.php?t=1326385&page=719
e l'utente che ha testato la beta non mi sembra assolutamente il tipo che spara ca22ate ;)
A parte che esistono già giochi dove la 2900XT va uguale alla 8800GTX.. :rolleyes:
Il mio reply era sul fatto che se negli esterni Crysis (dx9) girasse a 45 medi su G80, andare a 30 su 2900 vorrebbe dire avere un 50% di prestazioni in più per G80... il che mi pare veramente azzardata come affermazione da parte tua. ;)
nn lo so se è compatibile... come dissy in se si...però bisogna vedere se in dotazione ti hanno dato gli attacchi per il soket 775.
il 6850 è un proc freddissimo quindi già con quel dissy dovresti riuscire a portarlo a 3,8Ghz... ovviamente tutto ad acqua hai un silenzio ti tomba... io ho ventole nexus da 1000rpm sui radiatori e sono stato attento anche a quella dell'ali che a volte ho beccato alcuni che facevano + casino di tutto il pc... e ti assicuro che a volte accendo il pc anche quando è già acceso perchè nn mi accorgo che lo sia (quando il monitor si spegne dopo tot min ovviamente....nn sono rincoglionito !!!)
ho ricevuto dall'altro thread la notizia che cryysysy vuole 540mb di ram video
Un silenzio di tomba è quello che sto cercando (vorrei passare il pc in soggiorno). Potresti consigliarmi un sistema a liquido per la 2900 che stia dentro un desktop (per la cpu stasera cerco di controllare se all'epoca mi hanno dato anche le staffe di montaggio per il procio intel).
Per il giga della video ormai il dado è stratto:cry:
Grazie!!
Free Gordon
04-10-2007, 13:11
e secondo me mi ripeto ancora i 512bit si fanno sentire !!
La prova di Iantikas mette in risalto proprio ciò che ti dicevo io.
Nella maggioranza dei casi, 80GB/s per R600 sono più che sufficienti a garantire adeguato supporto alle TU e alle operazioni di lettura e scrittura.
Per ora, la bandwith mostruosa messa a disposizione da R600 è in gran parte sottosfruttata, anche se rimane uno dei gioielli tecnologici di ATI. :)
mordsiger
04-10-2007, 13:15
Un silenzio di tomba è quello che sto cercando (vorrei passare il pc in soggiorno). Potresti consigliarmi un sistema a liquido per la 2900 che stia dentro un desktop (per la cpu stasera cerco di controllare se all'epoca mi hanno dato anche le staffe di montaggio per il procio intel).
Per il giga della video ormai il dado è stratto:cry:
Grazie!!
io usi pompa laing dcc1 moddata con coperchio di oclab e girante con foro da 12 e ponte sull'alimentazione ( così fa a vuoto 950 l/h).
radiatore 120mm con 2 ventole, il waterblobk è l'ybris k7 e ho lasciato il resto del dissy originale sulle ram sia davanti che dietro con la ventola del dissy attiva al min rpm possibile giusto x fare arrivare un po di aria sulle placche delle ram poi la vaschetta dell'acqua che va nel bay da cdrom da 5"e1/4....ho poi aggiunto anche l'ybris one evo sul procio e un secondo radiatore all'esterno del case ( io ho l'inwin X568) sempre da 120 cn 2 ventole tutte da 1000 rpm....io lascio in dailty il procio e la vga come da firma e ho tem del proc di 48° idle e 72 °full mentre la vga 39° idle e 48° full.... nn male direi... ho provato anche la cella di peltier ma nn ne vale la pena... la mia x dire si è bruciata... sono delicate costano e necessitano di un ali supplementare...a parte i soldi e lo smatezzo la resa nn era male cmq
gianni1879
04-10-2007, 13:21
A proposito di DX10:
http://www.hothardware.com/articles/The_State_of_DirectX_10__Image_Quality__Performance/?page=1
Chiedo venia se è stata già postata...
solito link che propone sempre qualcuno...
cmq preferisco http://www.xbitlabs.com/articles/video/display/directx10-games.html
diciamo un peletto più affidabile e la situazione è un pò diversa
mordsiger
04-10-2007, 13:22
La prova di Iantikas mette in risalto proprio ciò che ti dicevo io.
Nella maggioranza dei casi, 80GB/s per R600 sono più che sufficienti a garantire adeguato supporto alle TU e alle operazioni di lettura e scrittura.
Per ora, la bandwith mostruosa messa a disposizione da R600 è in gran parte sottosfruttata, anche se rimane uno dei gioielli tecnologici di ATI. :)
Iantikas però nn ha provato a lasciare gli 80gb/s e clokkare a 890 la gpu, poi confrontare cn le ram a 128Gb/s (quello che si può fare con le ddr3).
dopo vorrei paragonare questi risultati, anzi pregherei Iantikas di provare anche ste cose.
poi come ho detto vorrei vedere nei giochi quando ci sono ombre ,aa,hdr,etc..etc.. la differenza di fps...
mordsiger
04-10-2007, 13:28
solito link che propone sempre qualcuno...
cmq preferisco http://www.xbitlabs.com/articles/video/display/directx10-games.html
diciamo un peletto più affidabile e la situazione è un pò diversa
driver ATI Catalyst Beta 8.38.9.1-rc2_48912....quali sarebbero in parole povere?
webbuffa
04-10-2007, 13:31
driver ATI Catalyst Beta 8.38.9.1-rc2_48912....quali sarebbero in parole povere?
:) Roba antica... quasi preistoria.. ora siamo agli 8.42 beta :) e 8.411 whql
mordsiger
04-10-2007, 13:33
:) Roba antica... quasi preistoria.. ora siamo agli 8.42 beta :) e 8.411 whql
ma baaaaaaaaaaaaaaaaastaaaaaaaa.... basterebbe solo il delta che c'è tra i 7.9 e i 7.10rc4 per sconvolgere i benchmark... figurati il delta fra sto driver di merda e l'rc4 !!!!!
webbuffa
04-10-2007, 13:34
ma baaaaaaaaaaaaaaaaastaaaaaaaa.... basterebbe solo il delta che c'è tra i 7.9 e i 7.10rc4 per sconvolgere i benchmark... figurati il delta fra sto driver di merda e l'rc4 !!!!!
:) lol esatto
guarda nella mia ormai quasi lunga carriera di oc(ho iniziato smandruppando un P200mmx e una voodoo3 2000 hihihi unreal torunament 99 con p200@250mhz e v3 da 144/144@166/166) ho trovato il test perfetto per vedese se l'oc è stabile con poco tempo.
come hai visto fare un loop di 3dmark vuol dire far fare un giro alla vga 1 test e qualche secondo di riposo poi parte un altro test.
questo vorrebbe dire alla vga fargli fare qualche secondo di riposo tra un test ed un altro rendendo il loop di un decina di 3dmark oltre che noioso anche poco efficacie.
allora io ho notato nei vari 3dmark 2test pesanti che fanno saltare subito fuori i problemi se ce ne sono.
allora metodo lungo
avvia il 3dmark03 seleziona tutti i gametest, non i cpu test, e nelle feature test seleziona solo il test Ragtroll.
ora fai partire un loop di 5 3dmark03 e osservi solo il ragtroll quando passa.
se li nn ci sono artefatti allora stai ok. se invece li ci sono artefatti ma negli altri test no allora devi abbassare le frequenze.
se no metodo ancora + veloce!
apri il 3dmark06 e selezioni l'unico test DEEP FREZE e lo metti in loop un 10-15 volte.
è il test + rapido ma che scalda la gpu + di tutti gli altri test messi insieme.
se esce viva da questo loop è stabile.
solo che devi stare incollato davanti al pc per tutti i lopp xè purtroppo a meno di oc eccessivi che riempiono lo schermo di punti. se sballa qualce texture sullo sfondo bianco non sempre si vedono.
se no c'è il terzo test + divertente.:D
imposti le tue frequenze, fai una passata di 3dmark05 o 06
se finisce il test senza artefatti, bèh carichi io tuo gioco preferito ed inizzi a giocare:D :D
sessioni sostenute di 1 o 2 ore e vedi se nn ti da artefatti allora la vga è ok:D :D :D
personalmente dei 3 cmq io preferisco sempre i 10 loop di deep freze anche se il terzo metodo lo uso sempre con piacere:D :D
io x testare l'oc della skeda faccio così...prima cerco il limite del core...poi cerco il limite della ram...x cercarli faccio un "veloce" loop da 5 d deep freeze o firefly forest...quando trovo le max freq ke reggono con questo test apro atitool e faccio 30min d "scan for artifact" seguiti da 30min d "sow 3drealtime"...se le freq reggono anke questo test faccio una sessione di un paio d'ore d gioco...e se reggono anke questo vuo dire ke reggono tutto :D ...
...il test + pesante tra questi 3 qualunque impo uso al 3dmark e aldilà del gioco rimane sempre atitool (me ne accorgo dalla voce "voltage regulator current" nel monitoring d rivatuner dove con l'oc ke tengo con il 3dmark il valore oscilla tra i 66/68...con gioki pesanti tipo bioshock/stalker tra 68/71...mentre con atitool si pone fisso a 74 con "scan for artifact" e 78 con "show 3d realtime"...
...ciao
a entrambi grazie per le dritte, effettivamente avrei fatto un po' di test ma nn così specifici. più che altro spero di raggiungere stabilemente gli 845/850 (quando quest estate ho porvato per vari motivi nn ero in una situazione ideale)
cmq a me in generale mi appassiona l'hardware ma voi ne sapete e siete dentro un bel pezzo più di me. Complimenti!
mordsiger
04-10-2007, 13:35
aspetteremo la solita rece del mitico tweaktown dopo l'uscita dei 7.10 whql...
A proposito di DX10:
http://www.hothardware.com/articles/The_State_of_DirectX_10__Image_Quality__Performance/?page=1
Chiedo venia se è stata già postata...
solito link che propone sempre qualcuno...
cmq preferisco http://www.xbitlabs.com/articles/video/display/directx10-games.html
diciamo un peletto più affidabile e la situazione è un pò diversa
cavolo che differenza enorme tra i 2 link.
il primo da quasi sempre in vantaggio G80 i secondo a parte che in lost planet da la 2900 davanti alla gtx in questi tutti i test e a quasi tutte le risoluzioni, e nn si comportano nemmeno male le fasce medie.
nn so, chi è più affidabile?
driver ATI Catalyst Beta 8.38.9.1-rc2_48912....quali sarebbero in parole povere?
7.7 mi sa, perchè i 7.9hotfix sono i 8.413.2-070927a-053867E-ATI
aspetteremo la solita rece del mitico tweaktown dopo l'uscita dei 7.10 whql...
credo che la faccia anche HW, visto che cmq la notizia che i 7.10 avrebbero portato un sacco di migliorie è in giro da un po', quindi credo che l'abbiano valutata
mordsiger
04-10-2007, 13:39
credo che la faccia anche HW, visto che cmq la notizia che i 7.10 avrebbero portato un sacco di migliorie è in giro da un po', quindi credo che l'abbiano valutata
io stò provando gli rc4 e prima ho provato gli rc3 e fidati c'è già parecchia differenza con i 7.9 (sia con che senza l'hotfix) quindi.....vedremo
mordsiger
04-10-2007, 13:40
cavolo che differenza enorme tra i 2 link.
il primo da quasi sempre in vantaggio G80 i secondo a parte che in lost planet da la 2900 davanti alla gtx in questi tutti i test e a quasi tutte le risoluzioni, e nn si comportano nemmeno male le fasce medie.
nn so, chi è più affidabile?
appunto per questo che le uniche rece a cui io do affidamento sono quelle che faccio io con la mia macchina....e sentendo risultati e screen dal forum...
altra news da altro trhead... cryryrysiis (che ciuccia 540Mb di Vram) la beta nn supporta il veri hygh come dettaglio di texture ed altro quindi nel gioco final release si presume che si vada ancora sopra
appunto per questo che le uniche rece a cui io do affidamento sono quelle che faccio io con la mia macchina....e sentendo risultati e screen dal forum...
altra news da altro trhead... cryryrysiis (che ciuccia 540Mb di Vram) la beta nn supporta il veri hygh come dettaglio di texture ed altro quindi nel gioco final release si presume che si vada ancora sopra
ma sicuro?... comincio a pentirmi di essermi preso la hd2900xt da 512mb...
io usi pompa laing dcc1 moddata con coperchio di oclab e girante con foro da 12 e ponte sull'alimentazione ( così fa a vuoto 950 l/h).
radiatore 120mm con 2 ventole, il waterblobk è l'ybris k7 e ho lasciato il resto del dissy originale sulle ram sia davanti che dietro con la ventola del dissy attiva al min rpm possibile giusto x fare arrivare un po di aria sulle placche delle ram poi la vaschetta dell'acqua che va nel bay da cdrom da 5"e1/4....ho poi aggiunto anche l'ybris one evo sul procio e un secondo radiatore all'esterno del case ( io ho l'inwin X568) sempre da 120 cn 2 ventole tutte da 1000 rpm....io lascio in dailty il procio e la vga come da firma e ho tem del proc di 48° idle e 72 °full mentre la vga 39° idle e 48° full.... nn male direi... ho provato anche la cella di peltier ma nn ne vale la pena... la mia x dire si è bruciata... sono delicate costano e necessitano di un ali supplementare...a parte i soldi e lo smatezzo la resa nn era male cmq
Grazie per le info!!
540 mb di vram a che risoluzione? anche a 1280*1024?
Athlon 64 3000+
04-10-2007, 13:57
io stò provando gli rc4 e prima ho provato gli rc3 e fidati c'è già parecchia differenza con i 7.9 (sia con che senza l'hotfix) quindi.....vedremo
i 7.10 rc4 sono mediamente più performanti anche del 7.9 hotfix per caso?
i 7.10 rc4 sono mediamente più performanti anche del 7.9 hotfix per caso?
Ma i beta 8.0 cosa sono, qualcuno li ha testati?
mordsiger
04-10-2007, 14:23
540 mb di vram a che risoluzione? anche a 1280*1024?
no era a 1680x1050 con aa 8x e tutto su high
ma sicuro?... comincio a pentirmi di essermi preso la hd2900xt da 512mb...
le condizioni erano quelle scritte sopra...almeno così mi ha riportato il tipo al quale gli ho fatto provare.....
i 7.10 rc4 sono mediamente più performanti anche del 7.9 hotfix per caso?
per quello che ho visto io si
Ma i beta 8.0 cosa sono, qualcuno li ha testati?
si erano sbagliati gli 8.0 sono i 7.10
no era a 1680x1050 con aa 8x e tutto su high
le condizioni erano quelle scritte sopra...almeno così mi ha riportato il tipo al quale gli ho fatto provare.....
per quello che ho visto io si
si erano sbagliati gli 8.0 sono i 7.10
aaaa... mi stavo preoccupando :eek:
The_max_80
04-10-2007, 14:38
beh ragazzi leggendo i vostri sbattimenti sulla quantita di memoria vi porto alcuni dati e vi faccio una domanda
- la beta di crysis a 1680.1050 tutto high fa 350 mb circa di ram occupata, poi sale al salir dell aa anche se non è visibile il suo effetto
-in bioshock con aa facevo 670 mb di ram usata, non capisco come faceva ad andare la 2900 con i 512 mb, a voi come andava
domanda: ma esistono versioni di 2900 con piu di 512 di ram?
altra domanda: ma mi fate capire quanto vanno ste 2900 ognuno dice una cosa diversa
domanda: ma esistono versioni di 2900 con piu di 512 di ram?
Si c'è la 2900xt con 1 gb di gddr4
altra domanda: ma mi fate capire quanto vanno ste 2900 ognuno dice una cosa diversa
Un po' sotto la 8800gtx, ma superiore alla gts 640mb;)
halduemilauno
04-10-2007, 15:41
solito link che propone sempre qualcuno...
cmq preferisco http://www.xbitlabs.com/articles/video/display/directx10-games.html
diciamo un peletto più affidabile e la situazione è un pò diversa
sono driver vecchi ormai superati(addirittura 3 driver nvidia fa). quella postata è con gli ultimi driver per ambedue. son tutti gli ultimi giochi e tutti(tranne bioshock parzialmente)con i filtri attivati. e quindi è questa
http://www.hothardware.com/Articles/The_State_of_DirectX_10__Image_Quality__Performance/
la rece attualmente affidabile.
Scrambler77
04-10-2007, 15:54
solito link che propone sempre qualcuno...
cmq preferisco http://www.xbitlabs.com/articles/video/display/directx10-games.html
diciamo un peletto più affidabile e la situazione è un pò diversa
:mc:
no comment su tutto il resto.
sono driver vecchi ormai superati(addirittura 3 driver nvidia fa). quella postata è con gli ultimi driver per ambedue. son tutti gli ultimi giochi e tutti(tranne bioshock parzialmente)con i filtri attivati. e quindi è questa
http://www.hothardware.com/Articles/The_State_of_DirectX_10__Image_Quality__Performance/
la rece attualmente affidabile.
Quoto.
Un po' sotto la 8800gtx, ma superiore alla gts 640mb;)
A volte si, a volte no...(vedi sopra)
The_max_80
04-10-2007, 15:56
Si c'è la 2900xt con 1 gb di gddr4
Un po' sotto la 8800gtx, ma superiore alla gts 640mb;)
ma io non capisco perchè + poco sotto, 512 bit ecc ecc non sono un intenditore, ma sulla carta le caratteristiche la vorrebbero come quella piu avanti o sbaglio?
ma io non capisco perchè + poco sotto, 512 bit ecc ecc non sono un intenditore, ma sulla carta le caratteristiche la vorrebbero come quella piu avanti o sbaglio?
tecnicamente si per la ram, ad esempio per gli shader se dovessimo guardare la mera frequenza anche la 8800gts starebbe sopra la hd2900xt con ben 1200mhz.
il fatto è che un successo di una vga oltre le raratteristiche tecniche e le frequenze la fa l'archidettura come si comporta con i giochi della passata generazioen e con quelli attuali.
è indubbio che g80 ha fatto la sua fortuna in questo periodo di transizione facendo andare alla grande i giochi + giocati in dx9 permettendo un utilizzo di aa senza perdite eccessive.
poi un altro fattore risiede anche nell'archidettura di quanto i programmatori riusciranno ad usarla o decideranno di adottare un sistema di programmazione che + si confà alla vga.
ecco là che puoi avere una vga potentissima sulla carta ma se gli sviluppatori decidono di non supportare le sue caratteristiche al + questa vga sarà una vga che andrà bene con le dx della sua generazione,mentre una vga meno potente ma cui gli sviluppatori decidono di usarne alcune peculiarità sicuramente questa vga andrà meglio.
purtroppo questo scenario non dovrebbe presentarsi visto che in teoria ci dovrebbero stare gli standar (vedi dx8,9,10) solo che ogni produttore di vga tende ad interpretare questi standard di programmazione in maniera libera aggiungendo o potenziando features che secondo lui saranno + utili nel linguaggio di programmazione
mordsiger
04-10-2007, 16:09
allora raga ho fatto vari test sull'aumento del PCI-Ex, ve lo riassumo brevemente:
Mhz PCI-EX -> risultato 3dmark 06 1.02
100 -> 14629
105 -> 14795 (+ 166pt)
110 -> 14809 (+ 14pt)
115 -> 14777 (- 32pt)
a 115Mhz anche overvoltando il pci-ex il risultato era il medesimo.
dopodichè ho provato ad andare su di overclock ulteriormente dato che si diceva che aumenta la capacità di oc... ma smentisco... tutto come prima.
vi faccio vedere il ris finale a 110Mhz
http://img528.imageshack.us/img528/7766/immagine5rb7.th.jpg (http://img528.imageshack.us/my.php?image=immagine5rb7.jpg)
micronauta
04-10-2007, 16:22
sono driver vecchi ormai superati(addirittura 3 driver nvidia fa). quella postata è con gli ultimi driver per ambedue. son tutti gli ultimi giochi e tutti(tranne bioshock parzialmente)con i filtri attivati. e quindi è questa
http://www.hothardware.com/Articles/The_State_of_DirectX_10__Image_Quality__Performance/
la rece attualmente affidabile.
si ma apparte i driver ,tutti i giochi sono testati con l aa,e´per quello che e´dietro,senza aa sarebbe uguale alla gtx o avanti...purtroppo la ns vga nn lo regge proprio l aa...:cry:
halduemilauno
04-10-2007, 16:29
si ma apparte i driver ,tutti i giochi sono testati con l aa,e´per quello che e´dietro,senza aa sarebbe uguale alla gtx o avanti...purtroppo la ns vga nn lo regge proprio l aa...:cry:
lo so. lo vado(andiamo)dicendo da tempo. ma chi compra una scheda di fascia alta lo fa per usarla con i filtri attivati.
si ma apparte i driver ,tutti i giochi sono testati con l aa,e´per quello che e´dietro,senza aa sarebbe uguale alla gtx o avanti...purtroppo la ns vga nn lo regge proprio l aa...:cry:
osti non hai detto niente, giocare senza AA è un scandaloso se compri schede high end
gianni1879
04-10-2007, 17:03
lo so. lo vado(andiamo)dicendo da tempo. ma chi compra una scheda di fascia alta lo fa per usarla con i filtri attivati.
però è strano in questo comportamento
http://www.xbitlabs.com/images/video/dx10-games/graphics/highend/coj_high_m1_fsaa.gif
http://www.xbitlabs.com/images/video/dx10-games/graphics/highend/coj_high_m2_fsaa_corrected1.gif
mi pare stano che con i 7.9 vada peggio :confused:
allora raga ho fatto vari test sull'aumento del PCI-Ex, ve lo riassumo brevemente:
Mhz PCI-EX -> risultato 3dmark 06 1.02
100 -> 14629
105 -> 14795 (+ 166pt)
110 -> 14809 (+ 14pt)
115 -> 14777 (- 32pt)
a 115Mhz anche overvoltando il pci-ex il risultato era il medesimo.
dopodichè ho provato ad andare su di overclock ulteriormente dato che si diceva che aumenta la capacità di oc... ma smentisco... tutto come prima.
vi faccio vedere il ris finale a 110Mhz
http://img528.imageshack.us/img528/7766/immagine5rb7.th.jpg (http://img528.imageshack.us/my.php?image=immagine5rb7.jpg)
Interessante questa prova...
;)
allora raga ho fatto vari test sull'aumento del PCI-Ex, ve lo riassumo brevemente:
Mhz PCI-EX -> risultato 3dmark 06 1.02
100 -> 14629
105 -> 14795 (+ 166pt)
110 -> 14809 (+ 14pt)
115 -> 14777 (- 32pt)
a 115Mhz anche overvoltando il pci-ex il risultato era il medesimo.
dopodichè ho provato ad andare su di overclock ulteriormente dato che si diceva che aumenta la capacità di oc... ma smentisco... tutto come prima.
vi faccio vedere il ris finale a 110Mhz
http://img528.imageshack.us/img528/7766/immagine5rb7.th.jpg (http://img528.imageshack.us/my.php?image=immagine5rb7.jpg)
potrei essere interessato a portare il pci-e a 105 mhz, che è quello che in proporzione offre + guadagno, ma siamo sicuri che poi nn si rovini niente?
potrei essere interessato a portare il pci-e a 105 mhz, che è quello che in proporzione offre + guadagno, ma siamo sicuri che poi nn si rovini niente?
Se il bus pci-e nella tua mobo si varia in modo autonomo senza intaccare quello del controller SATA (come nelle LanParty nF4 Ultra/SLI), puoi provare ad alzare quanto ti pare... ;)
Se il bus pci-e nella tua mobo si varia in modo autonomo senza intaccare quello del controller SATA (come nelle LanParty nF4 Ultra/SLI), puoi provare ad alzare quanto ti pare... ;)
suppongo che la striker extreme con l'nforce 680i possa variare i mhz del pci-e laciando bloccati tutti gli altri?
suppongo che la striker extreme con l'nforce 680i possa variare i mhz del pci-e laciando bloccati tutti gli altri?
Non lo so...
Prova... ;)
Ad ogni incremento fai bootare ed in win controlli...
Non lo so...
Prova... ;)
Ad ogni incremento fai bootare ed in win controlli...
scusa la niubbezza, ma non ho mai overcloccato il pci-e.. come controllo?
+Lonewolf+
04-10-2007, 20:14
:mc:
no comment su tutto il resto.
Quoto.
A volte si, a volte no...(vedi sopra)
in ogni caso è preferibile la 2900 perchè nella maggior parte dei casi si dimostra ben superiore ad una gts;)
allora raga ho fatto vari test sull'aumento del PCI-Ex, ve lo riassumo brevemente:
Mhz PCI-EX -> risultato 3dmark 06 1.02
100 -> 14629
105 -> 14795 (+ 166pt)
110 -> 14809 (+ 14pt)
115 -> 14777 (- 32pt)
a 115Mhz anche overvoltando il pci-ex il risultato era il medesimo.
dopodichè ho provato ad andare su di overclock ulteriormente dato che si diceva che aumenta la capacità di oc... ma smentisco... tutto come prima.
vi faccio vedere il ris finale a 110Mhz
http://img528.imageshack.us/img528/7766/immagine5rb7.th.jpg (http://img528.imageshack.us/my.php?image=immagine5rb7.jpg)
mhm interessante!!
curiosità se alzi di più che succede? e quali sono gli effetti collaterali di questo aumento di clock?
Iantikas
04-10-2007, 21:01
lo so. lo vado(andiamo)dicendo da tempo. ma chi compra una scheda di fascia alta lo fa per usarla con i filtri attivati.
ma infatti CON i filtri (e in + anke l'AA x texture trasparenti) NON si comprta male... http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html ...dato ke in 15 test su 20 è superiore alla GTS 640mb (e + di qualke volta d parekkio) ke è la sua diretta conocorrente...
...confronti con la GTX sono fuori luogo...sia xkè nn esiste una superiorità della XT dal punto di vista dell'intera arkitettura (il bus o il max teorico delle operazioni con gli shader nn fanno le prestazioni di una skeda) sia xkè la GTX costa 100€ in + ed è logico ke sia in generale + potente...
...x il discorso DX10 è ovvio ke al momento alla ATI hanno parekkio da fare con i driver...ma mi sembrerebbe assurdo pensare diversamente dato ke nvidia x es. solo ora dopo quasi un anno dall'uscita della serie 8800 è riuscita a creare dei driver performanti in DX10 (son passati circa 4 mesi dalla presentazione di R600...driver ottimizzati in DX10 sarebbero stati un miracolo a giudicare dal tempo ke c'ha messo nivdia ke nn penso abbia messo tanto xkè si grattava la pancia)...
...resta cmq il fatto ke x ora i gioki DX10 nn portano ad un miglioramento tale nella grafica da giustificare il + delle volte il calo drastico d framerate ke si presenta...e ke in DX9 le prestazioni della XT son + ke competitive anke nel terreno "ke tu (voi) andate dicendo da tempo" a lei + sfavorevole, ossia con AA/AF, dove, come si può vedere dal link è gneralmente sensiblmente superiore alla diretta conccorrente GTS 640mb...senza AA (l'AF invece ha un impatto marginale) distanzia ancora d + la GTS andando molte volte a raggiungere la GTX...
...;)
e quindi è questa
http://www.hothardware.com/Articles/The_State_of_DirectX_10__Image_Quality__Performance/
la rece attualmente affidabile.
L'affidabilità di una recensione è data dell'affidabilità del sito che la pubblica. Non di certo dalla release di driver utilizzati.
Non do giudizi su Hothardware o XbitLabs, ma dire che quella di Hothardware è la più affidabile solo perchè hanno utilizzato gli ultimi driver mi sembra una forzatura "di comodo". E se poi i test li hanno fatti da schifo?
DakmorNoland
04-10-2007, 22:16
L'affidabilità di una recensione è data dell'affidabilità del sito che la pubblica. Non di certo dalla release di driver utilizzati.
Non do giudizi su Hothardware o XbitLabs, ma dire che quella di Hothardware è la più affidabile solo perchè hanno utilizzato gli ultimi driver mi sembra una forzatura "di comodo". E se poi i test li hanno fatti da schifo?
Ragazzi ma state ancora a perdere tempo, con gente tipo halduemilauno? Un consiglio...lasciateli perdere!
Questi non sanno una mazza di Hardware! Andrebbero bannati a vita per incompetenza e fanboysmo acuto!
Tu puoi dirgli quello che vuoi tanto avranno sempre ragione loro, quindi meglio evitare propio di rispondere a persone del genere.
Fate finta che non esistano, prima o poi si stancheranno di postare porelli! :asd:
Ragazzi ma state ancora a perdere tempo, con gente tipo halduemilauno? Un consiglio...lasciateli perdere!
Questi non sanno una mazza di Hardware! Andrebbero bannati a vita per incompetenza e fanboysmo acuto!
Tu puoi dirgli quello che vuoi tanto avranno sempre ragione loro, quindi meglio evitare propio di rispondere a persone del genere.
Fate finta che non esistano, prima o poi si stancheranno di postare porelli! :asd:
effettivamente :asd: però nn è giusto;)
Tranquilli raga, non generiamo polemiche inutili...;)
Ragazzi ma state ancora a perdere tempo, con gente tipo halduemilauno? Un consiglio...lasciateli perdere!
Questi non sanno una mazza di Hardware! Andrebbero bannati a vita per incompetenza e fanboysmo acuto!
Tu puoi dirgli quello che vuoi tanto avranno sempre ragione loro, quindi meglio evitare propio di rispondere a persone del genere.
Fate finta che non esistano, prima o poi si stancheranno di postare porelli! :asd:
io ho avuto un sacco di divergenze con hal ma da qui a dire che nn capisce na mazza ce ne vuole;)
james_het
04-10-2007, 23:06
in ogni caso è preferibile la 2900 perchè nella maggior parte dei casi si dimostra ben superiore ad una gts;)
:eek:
va be dai, a parte il discorso precedente (compreso il posto sopra il mio) torniamo IT.
allora domenica mi metto a occare tutto il giorno, e sto preparando un po' di cose; tra cui anche l'aumento della frequeza della PCI-E, prima MaRtH ha detto:
Se il bus pci-e nella tua mobo si varia in modo autonomo senza intaccare quello del controller SATA (come nelle LanParty nF4 Ultra/SLI), puoi provare ad alzare quanto ti pare... ;)
quindi qualcuno sa se la mia mobo ha il bus pci-e che interagisce o no con il controlle sata?
e poi: aumentando la frequenza della PCI-E cosa succede?
cioè mordsiger ha aumentato la frequenza e ha avuto un incremento prestazionale, ma in generale a cosa serve? e quali sono gli effetti collaterali? ex: avviane un aumento di temperatura (mi sembra improbabile) la pci comunica più velocemente con il chipset e la cpu quindi (detto in soldoni) va meglio?
Grazie
desmacker
04-10-2007, 23:21
Ragazzi ma state ancora a perdere tempo, con gente tipo halduemilauno? Un consiglio...lasciateli perdere!
Questi non sanno una mazza di Hardware! Andrebbero bannati a vita per incompetenza e fanboysmo acuto!
Tu puoi dirgli quello che vuoi tanto avranno sempre ragione loro, quindi meglio evitare propio di rispondere a persone del genere.
Fate finta che non esistano, prima o poi si stancheranno di postare porelli! :asd:
Non puoi bannare halduemilauno solo perchè la pensa diversamente,per incompetenza poi direi propio di no. :O
desmacker
04-10-2007, 23:24
sono driver vecchi ormai superati(addirittura 3 driver nvidia fa). quella postata è con gli ultimi driver per ambedue. son tutti gli ultimi giochi e tutti(tranne bioshock parzialmente)con i filtri attivati. e quindi è questa
http://www.hothardware.com/Articles/The_State_of_DirectX_10__Image_Quality__Performance/
la rece attualmente affidabile.
Affidabile ? Diciamo più aggiornata che è meglio. ;)
in ogni caso è preferibile la 2900 perchè nella maggior parte dei casi si dimostra ben superiore ad una gts;)
Soprattutto in dx10 :doh:
ViVa Crysis for Vista 64bit ;)
Ragazzi ma state ancora a perdere tempo, con gente tipo halduemilauno? Un consiglio...lasciateli perdere!
Questi non sanno una mazza di Hardware! Andrebbero bannati a vita per incompetenza e fanboysmo acuto!
Tu puoi dirgli quello che vuoi tanto avranno sempre ragione loro, quindi meglio evitare propio di rispondere a persone del genere.
Fate finta che non esistano, prima o poi si stancheranno di postare porelli! :asd:
sospeso 5gg
sempre cmq il rispetto per gli altri
effettivamente :asd: però nn è giusto;)
idem visto che quoti e concordi
@ndre1 hai la sign irregolare
Signature: 3 righe a 1024 solo testo con massimo 3 smiles dell'Hardware Upgrade Forum oppure un'immagine 100 X 50 X 5KB e una riga di testo (non deve andare a capo).
sei pregato di editarla
>bYeZ<
halduemilauno
05-10-2007, 06:59
Affidabile ? Diciamo più aggiornata che è meglio. ;)
l'affidabilità cui accennavo si si riferiva al fatto che in questo momento è la più aggiornata. quindi la cosa era collegata all'altra.
;)
halduemilauno
05-10-2007, 07:06
io ho avuto un sacco di divergenze con hal ma da qui a dire che nn capisce na mazza ce ne vuole;)
Non puoi bannare halduemilauno solo perchè la pensa diversamente,per incompetenza poi direi propio di no. :O
grazie ad ambedue.
:mano:
HackaB321
05-10-2007, 07:54
L'affidabilità di una recensione è data dell'affidabilità del sito che la pubblica. Non di certo dalla release di driver utilizzati.
Non do giudizi su Hothardware o XbitLabs, ma dire che quella di Hothardware è la più affidabile solo perchè hanno utilizzato gli ultimi driver mi sembra una forzatura "di comodo". E se poi i test li hanno fatti da schifo?
Non mi sembra molto serio il comportamento di un sito che fa una recensione usando i driver più recenti per delle schede e non per altre.
Le recensioni serie si fanno sempre con gli ultimi drivers disponibili.
Il lavoro di Hothardware, anche se il sito era almeno per me sconosciuto, sembra invece fatto bene con delle analisi complete (praticamente tutti i giochi dx10 esistenti) riguardanti anche la qualità dell'immagine (non un semplice che ce l'ha più lungo). Poi noi non eravamo con loro ma da quello che sappiamo è giusto dire che quest'ultima recensione è più affiabile.
Dalla quale recensione emerge che:
-R600 è uscito con dei drivers scandalosi. Molto ottimo lavoro è stato fatto su XP e in dx9. I risultati si vedono tanto è vero che chi ha comprato questa scheda a maggio ha fatto, IMHO, un ottimo affare considerando prezzo-qualità-risultati con i giochi più recenti di questo autunno. Ancora tanto ne deve essere fatto su vista e dx10.
-Le dx 10, come è stato detto, sono , PER ORA,completamente inutili. Ammazzano il frame rate (anche su le geffo anche se in misura minore) con marginali miglioramenti qualitativi (solo COJ mi ha impressionato in questo senso).
-Per una valutazione corretta dei giochi dx10 bisogna apettare i veri giochi dx10 e non vecchi giochi dx9 patchati a 10. Nel senso che,secondo me, il frame rate non crolla tanto per debolezze hw, quanto per come quel codice dx10 è stato scritto e adattato alla base del gioco scritta in dx9. Insomma non sono assolutamente giochi ottimizzati per le dx10.
ninja970
05-10-2007, 08:05
-R600 è uscito con dei drivers scandalosi. Molto ottimo lavoro è stato fatto su XP e in dx9. I risultati si vedono tanto è vero che chi ha comprato questa scheda a maggio ha fatto, IMHO, un ottimo affare considerando prezzo-qualità-risultati con i giochi più recenti di questo autunno. Ancora tanto ne deve essere fatto su vista e dx10.
-Le dx 10, come è stato detto, sono , PER ORA,completamente inutili. Ammazzano il frame rate (anche su le geffo anche se in misura minore) con marginali miglioramenti qualitativi (solo COJ mi ha impressionato in questo senso).
-Per una valutazione corretta dei giochi dx10 bisogna apettare i veri giochi dx10 e non vecchi giochi dx9 patchati a 10. Nel senso che,secondo me, il frame rate non crolla tanto per debolezze hw, quanto per come quel codice dx10 è stato scritto e adattato alla base del gioco scritta in dx9. Insomma non sono assolutamente giochi ottimizzati per le dx10.
d'accordissimo su tutta la linea ;)
mordsiger
05-10-2007, 08:35
mhm interessante!!
curiosità se alzi di più che succede? e quali sono gli effetti collaterali di questo aumento di clock?
come puoi vedere già da 115 mhz faccio di - quindi nn ha senso alzare... io alla fine l'ho settato a 108 è il migliore senza tirarci troppo nel collo.... cmq per chi nelle pagine passate diceva che io con l'ali da 670 ci stavo largo vorrei precisare che ieri provando i 3dmark tutte le volte che partiva il cpu bench il mio ali faceva un fischio di un paio di secondi poi faceva partire la ventola a palla..... qualcosa vorrà dire no? riportando il procio a 3,9 ghz ( dai 4 che avevo impostato per benchare) nn lo faceva +.
è arrivato gpu-z
http://www.dinoxpc.com/News/news.asp?ID_News=13274&What=News&tt=Arriva+GPU-Z%3A+nuovo+tool+di+diagnostica+per+schede+video
Quoziente
05-10-2007, 09:28
Buongiorno a tutti. Ieri sera, in preda ad una carenza da videogames :D mi sono comprato world in conflict, l'ho installato sotto Vista visto che sfrutta le DX10. Il giochillo in questione integra un bench per testare gli fps e salva anche un report del bench effettuato. Se interessa (e soprattutto se trovo dove salva il bench) posso postare qualche prova...
Di primo acchitto direi che le 2 cose che penalizzano maggiormente le prestazioni con la 2900 sono le ombre e l'AA (ma dai...:rolleyes: ).
Ora ci sto giocando a 1680x1050, settaggi medio-alti e noAA e gira bello fluido anche se non ho un valore fps in game da postarvi perchè non l'ho ancora provato con fraps.
Interessa?
gianni1879
05-10-2007, 09:35
ma infatti CON i filtri (e in + anke l'AA x texture trasparenti) NON si comprta male... http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html ...dato ke in 15 test su 20 è superiore alla GTS 640mb (e + di qualke volta d parekkio) ke è la sua diretta conocorrente...
...confronti con la GTX sono fuori luogo...sia xkè nn esiste una superiorità della XT dal punto di vista dell'intera arkitettura (il bus o il max teorico delle operazioni con gli shader nn fanno le prestazioni di una skeda) sia xkè la GTX costa 100€ in + ed è logico ke sia in generale + potente...
...x il discorso DX10 è ovvio ke al momento alla ATI hanno parekkio da fare con i driver...ma mi sembrerebbe assurdo pensare diversamente dato ke nvidia x es. solo ora dopo quasi un anno dall'uscita della serie 8800 è riuscita a creare dei driver performanti in DX10 (son passati circa 4 mesi dalla presentazione di R600...driver ottimizzati in DX10 sarebbero stati un miracolo a giudicare dal tempo ke c'ha messo nivdia ke nn penso abbia messo tanto xkè si grattava la pancia)...
...resta cmq il fatto ke x ora i gioki DX10 nn portano ad un miglioramento tale nella grafica da giustificare il + delle volte il calo drastico d framerate ke si presenta...e ke in DX9 le prestazioni della XT son + ke competitive anke nel terreno "ke tu (voi) andate dicendo da tempo" a lei + sfavorevole, ossia con AA/AF, dove, come si può vedere dal link è gneralmente sensiblmente superiore alla diretta conccorrente GTS 640mb...senza AA (l'AF invece ha un impatto marginale) distanzia ancora d + la GTS andando molte volte a raggiungere la GTX...
...;)
si cmq avevo sbagliato a linkare avevo messo quella precedente con i vecchissimi driver, la rece che dovevo postare è questa che hai linkato tu, mi sono distratto e non ci ho fatto caso :)
cmq daccordissimo con te ;)
gianni1879
05-10-2007, 09:37
l'affidabilità cui accennavo si si riferiva al fatto che in questo momento è la più aggiornata. quindi la cosa era collegata all'altra.
;)
cmq scusami avevo linkato quella sbagliata, quella a cui mi riferivo era questa:
http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb_8.html ;)
Test di tutti i giochi DX10 presenti sul mercato: confronto 8800GTX/GTS - HD2900XT, SLI e CF
http://www.pcper.com/article.php?aid=461&type=expert&pid=2
ninja970
05-10-2007, 11:48
Test di tutti i giochi DX10 presenti sul mercato: confronto 8800GTX/GTS - HD2900XT, SLI e CF
http://www.pcper.com/article.php?aid=461&type=expert&pid=2
il giudizio finale è negativo (nulla di nuovo in DX10) per ATI/AMD
"In our initial review of AMD Radeon HD 2900 XT back in May I concluded that the card was mediocre for current DX9 titles but that "real test on these cards will come later this summer and into the fall as the first Direct X 10 titles are finally released." Well that time is now, and AMD let us down again."
Considera cmnq che tutte le prove sono state fatte con AA attivo, a parte Bioshock, e sappiamo bene quanto soffra la ATI in queste condizioni (anche se ovviamente non è certo una scusante per una vga da 350€), al di là di coloro che dicono "a quelle risoluzioni AA non serve"
halduemilauno
05-10-2007, 11:53
Test di tutti i giochi DX10 presenti sul mercato: confronto 8800GTX/GTS - HD2900XT, SLI e CF
http://www.pcper.com/article.php?aid=461&type=expert&pid=2
e questa(rispetto a quella da me precedentemente postata) è fatta con i 7.9+hotfix. il risultato è sotto gli occhi di tutti.
;)
ninja970
05-10-2007, 11:54
Considera cmnq che tutte le prove sono state fatte con AA attivo, a parte Bioshock, e sappiamo bene quanto soffra la ATI in queste condizioni (anche se ovviamente non è certo una scusante per una vga da 350€), al di là di coloro che dicono "a quelle risoluzioni AA non serve"
verissimo, anche se bisogna considerare che alle DX10 al momento non conviene proprio passare.
Io resto col mio bel Win XP PRO e le sue DX9c, quindi mi interessano soprattutto le prestazioni con quel SO e le DX9 :)
PS domanda credo banalissima, ma sarebbe possibile installare le DX10 su WinXP o bisogna per forza avere Vista ?
Le DirectX10 sono solo per Vista ;)
e questa(rispetto a quella da me precedentemente postata) è fatta con i 7.9+hotfix. il risultato è sotto gli occhi di tutti.
;)
o forse anche questa è fasulla... vero? :rolleyes: :rolleyes: :rolleyes:
una comparativa del genere dovrebbero farla i nostri qui su HWupgrade
ninja970
05-10-2007, 11:56
Le DirectX10 sono solo per Vista ;)
bene, allora quei test non mi interessano perchè mi tengo stretto il mio XP con DX9 :D
Iantikas
05-10-2007, 11:57
e questa(rispetto a quella da me precedentemente postata) è fatta con i 7.9+hotfix. il risultato è sotto gli occhi di tutti.
;)
infatti questa rece con i 7.9 hotfix (ke tra l'altro affermano di portare benefici in WiC) presenta risultati in WiC ke sono meno della metà di quella presente in hothardware :rolleyes: ...
...tutto normale come sempre no?...
casomai nn'è kiaro ancora...nella rece d pcper i risultati ke ottiene la hd2900xt alle varie ris in WiC son quelli ke nella rece d hothardware ottiene la HD2600XT!!!...
...aspetto la prox rece farlocca ke linkerete...dove + i driver s'aggiornano + le prestazioni peggiorano...ma nn di 1/2 fps...proprio si dimezzano...
Grave Digger
05-10-2007, 11:57
interessante notare il consumo delle schede,c'è un sostanzioso divario rispetto alla recensione fatta da Paolo Corsini in maggio :) ......
praticamente su quel fronte se la giocano sia gtx che 2900 :)
gianni1879
05-10-2007, 12:00
Test di tutti i giochi DX10 presenti sul mercato: confronto 8800GTX/GTS - HD2900XT, SLI e CF
http://www.pcper.com/article.php?aid=461&type=expert&pid=2
molto negativa in questa recensione.... boh
mi sa che lo scopriremo in una prossima rece di hwupgrade con le nuove schede.
Se la situazione sarà ancora questa vorrà dire che mi prendo una 8900gtx quando uscirà.
Grave Digger
05-10-2007, 12:01
infatti questa rece con i 7.9 hotfix (ke tra l'altro affermano di portare benefici in WiC) presenta risultati in WiC ke sono meno della metà di quella presente in hothardware :rolleyes: ...
...tutto normale come sempre no?...
effettivamente i risultati che si osservano in ogni singola recensione sono molto variegati ed eterogenei,in quest'ottica non si sa più a chi credere;nessuno ha più credibilità :boh: ....
gianni1879
05-10-2007, 12:04
effettivamente i risultati che si osservano in ogni singola recensione sono molto variegati ed eterogenei,in quest'ottica non si sa più a chi credere;nessuno ha più credibilità :boh: ....
concordo, recensioni molto diverse tra loro... :boh:
...
...se rileggi bene, io non ho dato giudizi sul sito X o sull'utente Y. Ci mancherebbe. Dico solo che giudicare una recensione affidabile solo perchè utilizza gli ultimi diver è sbagliato. Soprattutto perchè l'ultimo driver non è una garanzia di "serietà del recensore". Ad esempio le recensioni di HwUpgrade o Beyond3D, secondo me, sono più affidabili di tanti altri siti che magari hanno utilizzato gli ultimi supermegabetadriver.
Per avere un giudizio completo vanno lette tante recensioni, non solo le ultime in ordine cronologico.
...ciao! :)
Jaguar64bit
05-10-2007, 12:07
Test di tutti i giochi DX10 presenti sul mercato: confronto 8800GTX/GTS - HD2900XT, SLI e CF
http://www.pcper.com/article.php?aid=461&type=expert&pid=2
A proposito di DX10:
http://www.hothardware.com/articles/The_State_of_DirectX_10__Image_Quality__Performance/?page=1
Chiedo venia se è stata già postata...
per me sia ati che nvidia hanno dei driver acerbi per le dx10 e in più i motori grafici attuali sono molto mal ottimizzati per sfruttare le nuove librerie , non penso che sia un problema di architetture lente in Dx10 ( almeno lo spero ).
...aspetto la prox rece farlocca ke linkerete...dove + i driver s'aggiornano + le prestazioni peggiorano...ma nn di 1/2 fps...proprio si dimezzano...
Premesso che non era mia intenzione scatenare alcun flame, che pare sia lo sport preferito in questi thread (come se tutti vi sentiate offesi quando si posta qualcosa che non vi piace), io ho solo linkato un articolo che credevo interessante per tutti i possessori delle vga in oggetto: ho appena letto i risultati della rece di hothardware (non avevo nemmeno letto la pagina precedente :rolleyes: ), e differenze così sensibili sono effettivamente molto strane, ma magari sono da ricercare nel modo con cui è stato realizzato il bench (saranno stati utilizzati livelli diversi dai due siti :boh: ).
Se poi volete vedere in ogni recensione che si posta, un tentativo di destabilizzare il vostro bel mondo dorato allora beh, sarebbe meglio che vi diate una regolata :rolleyes:
Grave Digger
05-10-2007, 12:10
concordo, recensioni molto diverse tra loro... :boh:
cmnq credo che ormai si stia perdendo il lume della ragione,tutte le testate giornalistiche sfornano recensioni su recensioni,ed un dato oggettivo come quello di un bench sta diventando una opinione,una specie di scuola di pensiero....ma dove si arriverà :boh: ......
io cmnq ho notato questa strana defaillance della 2900,già a naso guardando i grafici puzzano alquanto :) .....
Il problema fondamentale, a mio parere, di questo periodo è che purtroppo mancano dei benchmark universali per ogni gioco: se ogni gioco avesse un timedemo (come accadde per DooM3 e F.E.A.R., e come capita per Lost Planet, di cui però conosciamo tutti le difficoltà di HD2900, e CoJ DX10) allora i vari siti non sarebbero costretti ad inventarsi un percorso con FRAPS che, per forza di cose, non può mai essere uguale per i diversi test; se poi un sito prende un percorso in cui magari sono più presenti ombre, shaders, effetti particellari, ecc., mentre un altro in cui invece ci sono poche ombre ma più effetti HDR, meno fumo e più shaders, ecco che i risultati sono del tutto incomparabili tra le vga.
In effetti mi aspettavo che con l'avvento di UE3 gli sviluppatori facessero questo regalo alle hw house, in un periodo in cui pare che lo sport migliore sia ritenere farlocca ogni rece negativa per la propria vga :rolleyes:
Non dubito cmnq che con l'uscita di Crysis e di UT3, ci sarà un fiorire di timedmo
Iantikas
05-10-2007, 12:36
Premesso che non era mia intenzione scatenare alcun flame, che pare sia lo sport preferito in questi thread (come se tutti vi sentiate offesi quando si posta qualcosa che non vi piace), io ho solo linkato un articolo che credevo interessante per tutti i possessori delle vga in oggetto: ho appena letto i risultati della rece di hothardware (non avevo nemmeno letto la pagina precedente :rolleyes: ), e differenze così sensibili sono effettivamente molto strane, ma magari sono da ricercare nel modo con cui è stato realizzato il bench (saranno stati utilizzati livelli diversi dai due siti :boh: ).
Se poi volete vedere in ogni recensione che si posta, un tentativo di destabilizzare il vostro bel mondo dorato allora beh, sarebbe meglio che vi diate una regolata :rolleyes:
se vuoi fare l'angioletto ingenuo accomodati pure...interessante notare come tu ke nn hai la skeda linki rece x far capire come va questa skeda proprio a ki la skeda la possiede (parole tue "io ho solo linkato un articolo che credevo interessante per tutti i possessori delle vga in oggetto")...
...in un periodo in cui pare che lo sport migliore sia ritenere farlocca ogni rece negativa per la propria vga
il fatto è ke ogni rece da risultati terribilmente diversi tra loro...se prendi quella d pcper, d hothardware e d xbit-labs sulle dx10 ognuna ha risultati ke nn centrano praticamente niente con l'altra...
...quali siano quelle vere io nn lo so...anke xkè nn avendo vista (e nn essendo assolutamente interessato a aquistarlo nel prox futuro) nn ho la + pallida d come si comporti la skeda in DX10...
...ho xò Win XP e so perfettamente come si comporta la skeda in DX9 (anke xkè possiedo + o - tutti i gioki ke vengono usati x fare i test) x il resto senza stare a riscrivere sempre le stesse cose copio il mio post precedente dato ke la pag precedente l'hai saltata...
ma infatti CON i filtri (e in + anke l'AA x texture trasparenti) NON si comprta male... http://www.xbitlabs.com/articles/vid...xt-1024mb.html ...dato ke in 15 test su 20 è superiore alla GTS 640mb (e + di qualke volta d parekkio) ke è la sua diretta conocorrente...
...confronti con la GTX sono fuori luogo...sia xkè nn esiste una superiorità della XT dal punto di vista dell'intera arkitettura (il bus o il max teorico delle operazioni con gli shader nn fanno le prestazioni di una skeda) sia xkè la GTX costa 100€ in + ed è logico ke sia in generale + potente...
...x il discorso DX10 è ovvio ke al momento alla ATI hanno parekkio da fare con i driver...ma mi sembrerebbe assurdo pensare diversamente dato ke nvidia x es. solo ora dopo quasi un anno dall'uscita della serie 8800 è riuscita a creare dei driver performanti in DX10 (son passati circa 4 mesi dalla presentazione di R600...driver ottimizzati in DX10 sarebbero stati un miracolo a giudicare dal tempo ke c'ha messo nivdia ke nn penso abbia messo tanto xkè si grattava la pancia)...
...resta cmq il fatto ke x ora i gioki DX10 nn portano ad un miglioramento tale nella grafica da giustificare il + delle volte il calo drastico d framerate ke si presenta...e ke in DX9 le prestazioni della XT son + ke competitive anke nel terreno "ke tu (voi) andate dicendo da tempo" a lei + sfavorevole, ossia con AA/AF, dove, come si può vedere dal link è gneralmente sensiblmente superiore alla diretta conccorrente GTS 640mb...senza AA (l'AF invece ha un impatto marginale) distanzia ancora d + la GTS andando molte volte a raggiungere la GTX...
...ciao
se vuoi fare l'angioletto ingenuo accomodati pure...interessante notare come tu ke nn hai la skeda linki rece x far capire come va questa skeda proprio a ki la skeda la possiede (parole tue "io ho solo linkato un articolo che credevo interessante per tutti i possessori delle vga in oggetto")...
E questo che vuol dire? Solo perché non ho nessuna delle vga in oggetto non dovrei postare articoli che cmnq mi interessano, essendo appassionato di hw, come penso tutti voi?
Questo clima di sospetto è francamente ridicolo, e le tue parole non fanno altro che convincermi sempre di più che con persone che la pensano così non si possa discutere mai.
...
il fatto è ke ogni rece da risultati terribilmente diversi tra loro...se prendi quella d pcper, d hothardware e d xbit-labs sulle dx10 ognuna ha risultati ke nn centrano praticamente niente con l'altra...
...quali siano quelle vere io nn lo so...anke xkè nn avendo vista (e nn essendo assolutamente interessato a aquistarlo nel prox futuro) nn ho la + pallida d come si comporti la skeda in DX10...
Ed infatti non ho affatto negato che ci sia qualcosa di strano, a partire dall'eventuale differenza dei livelli di gioco usati per i vari bench (come dimostrato da un'altra rece su legionhardware (http://www.legionhardware.com/document.php?id=681&p=11), dove hanno verificato che utilizzando un certo percorso la ATI era sempre dietro alla nVidia, mentre utilizzandone altri risultava superiore anche alla 8800GTX)
...ho xò Win XP e so perfettamente come si comporta la skeda in DX9 (anke xkè possiedo + o - tutti i gioki ke vengono usati x fare i test) x il resto senza stare a riscrivere sempre le stesse cose copio il mio post precedente dato ke la pag precedente l'hai saltata...
Non usi Vista quindi tu dovresti essere uno di quelli che potrebbe ritenere interessante sapere come va la tua vga con questo os: se invece non te ne frega nulla, perché Vista non lo vuoi usare per un bel po, beh, io non posso farci nulla, ma non venirmi a dire che "l'ho fatto apposta" perché sei solo ridicolo
Grave Digger
05-10-2007, 13:06
E questo che vuol dire? Solo perché non ho nessuna delle vga in oggetto non dovrei postare articoli che cmnq mi interessano, essendo appassionato di hw, come penso tutti voi?
Questo clima di sospetto è francamente ridicolo, e le tue parole non fanno altro che convincermi sempre di più che con persone che la pensano così non si possa discutere mai.
...
Ed infatti non ho affatto negato che ci sia qualcosa di strano, a partire dall'eventuale differenza dei livelli di gioco usati per i vari bench (come dimostrato da un'altra rece su legionhardware (http://www.legionhardware.com/document.php?id=681&p=11), dove hanno verificato che utilizzando un certo percorso la ATI era sempre dietro alla nVidia, mentre utilizzandone altri risultava superiore anche alla 8800GTX)
Non usi Vista quindi tu dovresti essere uno di quelli che potrebbe ritenere interessante sapere come va la tua vga con questo os: se invece non te ne frega nulla, perché Vista non lo vuoi usare per un bel po, beh, io non posso farci nulla, ma non venirmi a dire che "l'ho fatto apposta" perché sei solo ridicolo
fukka,se accetti un mio consiglio,meglio terminare,ti stai solo comprando una sospensione a buon mercato :) ....
detto questo cmnq condivido il tuo punto di vista,perchè discutere in un clima di sospetto è sempre poco piacevole....giusto ieri ho voluto lanciare di proposito una provocazione sulla news amd(ho spiegato successivamente a leoneazzurro il perchè cmnq),e tutti i tifosi amd si sono lanciati a rispondere e a lamentarsi.....il tutto per un processore :) .....
ma fate l'amore,non fate la guerra ;) !!!!!
Free Gordon
05-10-2007, 13:11
Spero di vedere una recensione di Vifani (perchè non torni? :( ) con i nuovi driver per ATI e nVidia sia dx10 che dx9 sugli ultimi giochi usciti.
Naturalmente solo high-end (2900XT/PRO 512/1GB, 8800GTS/GTX/Ultra). :D
+Lonewolf+
05-10-2007, 13:19
e questa(rispetto a quella da me precedentemente postata) è fatta con i 7.9+hotfix. il risultato è sotto gli occhi di tutti.
;)
company of heroes non mi gira affatto così......
e nemmeno wic
company of heroes non mi gira affatto così......
e nemmeno wic
Queste parole valgono molto di più dei sospetti e dei flame, e sono la sola cosa che conta :mano:
...ragazzi, ci vorrebbe veramente molto poco per confutare dubbi, sospetti, aspettative di chi ha questa vga, la vorrebbe o ne ha un'altra e si vuole confrontare.
Si prendono dei giochi che hanno il benchmark integrato, ad esempio: FEAR, Company of Heroes, World In Conflict, Lost Planet; si applicano le ultime patch, si prendono gli ultimi driver (o quelli che ritenete migliori) e si esegue il benchmark. Poi si fanno i confronti tra di voi e con le recensioni trovate in giro (ovviamente con quelle che hanno utilizzato cpu/ram uguali o simili) e si traggono le conclusioni.
Senza stare a scannarsi sul chi ce l'ha più lungo...:D
...si potrebbe creare un nuovo thread dedicato solamente a questi test/confronti o riesumarne uno che forse c'era già (se non sbaglio).
:)
...ragazzi, ci vorrebbe veramente molto poco per confutare dubbi, sospetti, aspettative di chi ha questa vga, la vorrebbe o ne ha un'altra e si vuole confrontare.
Si prendono dei giochi che hanno il benchmark integrato, ad esempio: FEAR, Company of Heroes, World In Conflict, Lost Planet; si applicano le ultime patch, si prendono gli ultimi driver (o quelli che ritenete migliori) e si esegue il benchmark. Poi si fanno i confronti tra di voi e con le recensioni trovate in giro (ovviamente con quelle che hanno utilizzato cpu/ram uguali o simili) e si traggono le conclusioni.
Senza stare a scannarsi sul chi ce l'ha più lungo...:D
...si potrebbe creare un nuovo thread dedicato solamente a questi test/confronti o riesumarne uno che forse c'era già (se non sbaglio).
:)
Grande Belin quoto in pieno.
Athlon 64 3000+
05-10-2007, 14:02
...ragazzi, ci vorrebbe veramente molto poco per confutare dubbi, sospetti, aspettative di chi ha questa vga, la vorrebbe o ne ha un'altra e si vuole confrontare.
Si prendono dei giochi che hanno il benchmark integrato, ad esempio: FEAR, Company of Heroes, World In Conflict, Lost Planet; si applicano le ultime patch, si prendono gli ultimi driver (o quelli che ritenete migliori) e si esegue il benchmark. Poi si fanno i confronti tra di voi e con le recensioni trovate in giro (ovviamente con quelle che hanno utilizzato cpu/ram uguali o simili) e si traggono le conclusioni.
Senza stare a scannarsi sul chi ce l'ha più lungo...:D
...si potrebbe creare un nuovo thread dedicato solamente a questi test/confronti o riesumarne uno che forse c'era già (se non sbaglio).
:)
Ottimo ragionamente.
Facendo cosi è meglio che scatenare inutili flame come successe sempre.
mordsiger
05-10-2007, 14:04
perfetto io ci sono....a questo punto aspettiamo una settimanina che escono i 7.10 poi ci diamo dentro con i bench !!!!
...si potrebbe creare un nuovo thread dedicato solamente a questi test/confronti o riesumarne uno che forse c'era già (se non sbaglio)
Questa proposta l'avevo fatta io a suo tempo, quando uscì HD2900, ma i mod risposero picche perché convinti che sarebbe stato solo un altro covo di fanboy e flammatori (di sicuro cmnq c'è un 3d sui risultati di HD2900).
Prova a fare la proposta adesso, magari ci hanno ripensato :boh:
perfetto io ci sono....a questo punto aspettiamo una settimanina che escono i 7.10 poi ci diamo dentro con i bench !!!!
ci sono anche io con vista 64, se fate benchmark con bete di crysis, stalker, hl2 ep2 (che mercoledì esce) potete contare su di me :D
Grande Belin quoto in pieno.
Ottimo ragionamente.
Facendo cosi è meglio che scatenare inutili flame come successe sempre.
perfetto io ci sono....a questo punto aspettiamo una settimanina che escono i 7.10 poi ci diamo dentro con i bench !!!!
:)
Questa proposta l'avevo fatta io a suo tempo, quando uscì HD2900, ma i mod risposero picche perché convinti che sarebbe stato solo un altro covo di fanboy e flammatori (di sicuro cmnq c'è un 3d sui risultati di HD2900).
Prova a fare la proposta adesso, magari ci hanno ripensato :boh:
...aspettiamo una risposta da uno dei mod, vediamo che dicono. In ogni caso se lo apro io, dato che non ho molto tempo libero, non mi farò problemi a segnalare qualsiasi tipo di messaggio polemico e/o di flame.
ci sono anche io con vista 64, se fate benchmark con bete di crysis, stalker, hl2 ep2 (che mercoledì esce) potete contare su di me :D
L'importante è che abbiano un benchmark integrato come HL2 e quelli di cui scrivevo prima.
:)
c'è questo ragazzi:
http://www.hwupgrade.it/forum/showthread.php?t=1484107
;)
c'è questo ragazzi:
http://www.hwupgrade.it/forum/showthread.php?t=1484107
;)
me lo ero dimenticato :asd:
we raga arrivata la 2900,pagata in un negozio locale 310 euro :eek:
Cmq quali frequenze posso tenere a voltaggi default?
Iantikas
05-10-2007, 17:15
è uscito GPU-Z 0.0.3 ... http://www.techpowerup.com/gpuz/cx5yk ...
...utile x avere i valori d texture/pixel fillrate e bandwidth della skeda in oc senza starseli a calcolare da soli...
... http://www.techpowerup.com/downloads/778/TechPowerUp_GPU-Z_v0.0.3.html ...
...ciao
fanculium
05-10-2007, 19:31
Ciao ragazzi!
E' da tanto che non mi faccio vivo...Ho un problemino...
Volevo installare gli ultimi driver ATI, e così con Driver Cleaner ho pulito il computer...Faccio per installare gli ultimi driver..e non mi installano Catalyst control center!!Ho provato e riprovato ma nulla da fare!!E non so il perchè!
Ho Vista.
VI PREGO HELP ME!!
Grazie in anticipo e ciao:D
installato il netframework 2.0?
c'è questo ragazzi:
http://www.hwupgrade.it/forum/showthread.php?t=1484107
...si, giusto. :) Comunque io intendevo un thread un pò più "grande", dove postare screen di risultati ottenuti nella stessa maniera con le HD2900 e le 8800.
...ciao!
...si, giusto. :) Comunque io intendevo un thread un pò più "grande", dove postare screen di risultati ottenuti nella stessa maniera con le HD2900 e le 8800.
...ciao!
si sai che tread flammone che ne esce fuori.
io credo ci sia un tread tecnico anche delle 8800gts e gtx possiamo consultare da li i risultati.
e cmq sono risultati che andrebbero postati sul tread Prove sul campo hd2900xt
si sai che tread flammone che ne esce fuori.
...secondo me, non bisogna aprirlo perchè ci sono altri thread simili, ma non perchè c'è il rischio che i soliti babbi scatenino flame. Se ragioniamo così, è una sconfitta per tutti quelli che vogliono postare tranquillamente. In anni e anni che scrivo su questo forum non sono mai stato sospeso per flame o robe simili, non vedo perchè dovrei "limitarmi" per colpa di altri. Comunque per me no problem, chiuso ot e discorso. :)
Gears of War, versione pc DX10, in arrivo il 6 novembre. Un altro bel test per le vga DX10, finalmente un pò di carne al fuoco!
:cool:
Quoziente
06-10-2007, 10:48
Qualcuno di voi ha World in conflict installato sotto Vista? Come vi gira con la HD2900XT? Io a 1680x1050, con dettagli medio-alti, no AA, AF16x, ombre disattivate giro tra i 18 e i 45 fps. Con gli hotfix 7.9 migliora la situazione in DX10? Non so neanch'io se scaricarli o aspettare direttamente i 7.10...
webbuffa
06-10-2007, 10:53
Qualcuno di voi ha World in conflict installato sotto Vista? Come vi gira con la HD2900XT? Io a 1680x1050, con dettagli medio-alti, no AA, AF16x, ombre disattivate giro tra i 18 e i 45 fps. Con gli hotfix 7.9 migliora la situazione in DX10? Non so neanch'io se scaricarli o aspettare direttamente i 7.10...
:) A questo punto attendi i 7.10 WHQL!! :)
Iantikas
06-10-2007, 10:55
:) A questo punto attendi i 7.10 WHQL!! :)
quoto
quoto
quando dovrebbero sfornarli?
mordsiger
06-10-2007, 11:56
quando dovrebbero sfornarli?
entro una settimana + o -
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.