View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
3DMark79
13-07-2007, 00:30
quindi per la mod a 8 pin basta fare questo?
http://img526.imageshack.us/img526/6167/pontedg2.th.jpg (http://img526.imageshack.us/my.php?image=pontedg2.jpg)
:confused:
In pratica si.Sono 2 masse...e io che pensavo fosse 1 massa e 1 positivo!:doh:
Dovrebbe dare l'overdrive se non erro così il controllo della ventola e delle temperature vero?
In pratica si.Sono 2 masse...e io che pensavo fosse 1 massa e 1 positivo!:doh:
Dovrebbe dare l'overdrive se non erro così il controllo della ventola e delle temperature vero?
ora ho guardato sulla scheda e vedo anche io che quei 2 pin in + sono tutti e 2 neri :boh:
MonsterMash
13-07-2007, 00:49
Mi sono comprato il nuovo alimentatore:
LC Power Arkangel da 850W :D Una bestia. E finalmente ho un alimentatore modulare! Che comodità! Adesso volendo potrei anche farmi il crosfire :P
Mi chiedo però se richiudendo il tutto non abbia rimontato male la ventola che avevo messo a soffiare sui mosfet. A voi a che temperatura stanno? A me sotto sforzo arrivano a 80 °C! Vi ricordo che i miei sono "nudi", perchè ho smontato il dissipatore originale, visto che tengo la gpu a liquido.
Ciao
Mi sono comprato il nuovo alimentatore:
LC Power Arkangel da 850W :D Una bestia. E finalmente ho un alimentatore modulare! Che comodità! Adesso volendo potrei anche farmi il crosfire :P
Mi chiedo però se richiudendo il tutto non abbia rimontato male la ventola che avevo messo a soffiare sui mosfet. A voi a che temperatura stanno? A me sotto sforzo arrivano a 80 °C! Vi ricordo che i miei sono "nudi", perchè ho smontato il dissipatore originale, visto che tengo la gpu a liquido.
Ciao
52° :asd:
3DMark79
13-07-2007, 01:14
ora ho guardato sulla scheda e vedo anche io che quei 2 pin in + sono tutti e 2 neri :boh:
Infatti!Buonanotte... :ronf:
MonsterMash
13-07-2007, 01:33
Stavo pensando di comprarmi questo affare:
http://www.overclockplanet.it/images/prodotti/zm_rwb1_1935551.jpg
La compatibilità viene garantita solo per la serie x19x0, secondo voi è compatibile anche con le hd2900xt?
Ciao
Stavo pensando di comprarmi questo affare:
La compatibilità viene garantita solo per la serie x19x0, secondo voi è compatibile anche con le hd2900xt?
Ciao
dubito... ma sarebbe per le ram... non ci devi raffreddare i mosfet ?
ragazzi su c*s*king.de, c'è il blocco ad acqua x la 2900 è dell'aquacomputer, è fatto veramente bene, mi sa ke lo ordino ora...:D
arrivato il nuovo pc, bellina d'estetica la 2900xt
MonsterMash
13-07-2007, 10:46
dubito... ma sarebbe per le ram... non ci devi raffreddare i mosfet ?
Tutto va raffreddato, e le ram non fanno eccezione :)
Sto cercando anche un blocco per i mosfet, ma alla peggio ci metto un paio di dissipatori in rame di quelli massicci e una ventola da 60 o da 80 solo per loro.
Tidus.hw
13-07-2007, 10:53
Tutto va raffreddato, e le ram non fanno eccezione :)
Sto cercando anche un blocco per i mosfet, ma alla peggio ci metto un paio di dissipatori in rame di quelli massicci e una ventola da 60 o da 80 solo per loro.
ma tu quando pensi di cambiare ali? quando comincia a friggere? :asd:
MonsterMash
13-07-2007, 11:00
ma tu quando pensi di cambiare ali? quando comincia a friggere? :asd:
Ho dimenticato di aggiornare la firma, ma ieri mi è arrivato il nuovo ali: LC Power Arkangel da 850W. Mi sento con le spalle coperte adesso! Hai voglia ad overclocckare ed overvoltare :D
Tidus.hw
13-07-2007, 11:36
Ho dimenticato di aggiornare la firma, ma ieri mi è arrivato il nuovo ali: LC Power Arkangel da 850W. Mi sento con le spalle coperte adesso! Hai voglia ad overclocckare ed overvoltare :D
ah ecco :asd:
ogni volta che leggevo la tua firma mi chiedevo quanto avrebbe retto ancora :asd:
comunque oggi e' il grande giorno, oggi pomeriggio la ordino :D
sono felicissimissimo >.< shi!!!!!! xD
MonsterMash
13-07-2007, 12:04
52° :asd:
Ma i tuoi stanno a 52 sotto sforzo? Perchè anche sistemando meglio la ventola, da me quelle temperature le tengo a stento a riposo...
ma voi collegate 1 solo 6 pin e basta?
3DMark79
13-07-2007, 13:13
ma voi collegate 1 solo 6 pin e basta?
Devi collegare almeno 2 connettore PCI-E da 6 pin.:read:
3DMark79
13-07-2007, 13:22
Tutto va raffreddato, e le ram non fanno eccezione :)
Sto cercando anche un blocco per i mosfet, ma alla peggio ci metto un paio di dissipatori in rame di quelli massicci e una ventola da 60 o da 80 solo per loro.
Ma i mosfet riscaldano così tanto quando la scheda e sotto overclock oppure anche in default visto che vuoi rinfrescarli?:stordita:
MonsterMash
13-07-2007, 14:04
Ma i mosfet riscaldano così tanto quando la scheda e sotto overclock oppure anche in default visto che vuoi rinfrescarli?:stordita:
Attualmente la scheda la tengo a 800 / 1700, quindi quasi a default, e nonostante questo i mosfet sono roventi.
Sarà che sono coperti dal tubo che va al WB del chipset nf4, e quindi l'aria circola male, ma adesso ad esempio sono a 57°, e non gioco da ore!
C'è anche da dire che la T ambiente è di 30 °C...
Ciao
Tidus.hw
13-07-2007, 14:05
ordinata la scheda, 357 + 10 di spedizione... dovrebbe arrivarmi verso meta' della settimana prossima >.<
speriamo bene...
Devi collegare almeno 2 connettore PCI-E da 6 pin.:read:
ma è indifferente quale dei 2 pin lascio libero in quello da 8?
3DMark79
13-07-2007, 14:23
ma è indifferente quale dei 2 pin lascio libero in quello da 8?
Se devi inserire il collettore da 6 PIN nell'attacco 8pin della scheda penso che debba entrare solo in un verso!
Non dirmi che si può entrare in entrambi i lati o facendolo partire da destra o da sinistra!?!:eek:
Se devi inserire il collettore da 6 PIN nell'attacco 8pin della scheda penso che debba entrare solo in un verso!
Non dirmi che si può entrare in entrambi i lati o facendolo partire da destra o da sinistra!?!:eek:
a già è vero ke pirla, è ke non l'ho ancora montato xè ora sono al lavoro e ho tutto sulla scrivania, ho solo guardato se c'era tutto
3DMark79
13-07-2007, 14:33
a già è vero ke pirla, è ke non l'ho ancora montato xè ora sono al lavoro e ho tutto sulla scrivania, ho solo guardato se c'era tutto
Guarda qui sai com'è!;)
http://img266.imageshack.us/img266/4056/imageviewphpxn5.jpg (http://imageshack.us)
Guarda qui sai com'è!;)
http://img266.imageshack.us/img266/4056/imageviewphpxn5.jpg (http://imageshack.us)
si si, ho provato e infatti va solo così
Ma i tuoi stanno a 52 sotto sforzo? Perchè anche sistemando meglio la ventola, da me quelle temperature le tengo a stento a riposo...
sotto sforzo
Ma i mosfet riscaldano così tanto quando la scheda e sotto overclock oppure anche in default visto che vuoi rinfrescarli?:stordita:
i mosfet vengono raffreddati passivamente dal dissipatore originale della hd2900, se viene tolto ovviamente si scaldano.. troppo... mi era successo questo anche con la x1950pro, che montandoci supra il zalman vf900 i circuiti di alimentazione della scheda diventavano roventi, avevo risolto mettendoci sopra dei dissipatori per ram
si si, ho provato e infatti va solo così
ma cmq la cosa è strana, vi ricordate la presntazione del K10, dove quei mostri hanno elaborato un video in 1080P con la codifica H264 in tempo reale? ecco, molti utenti avevano fatto notare che un connettore 6pin era staccato, e Corsini aveva detto che la scheda funzionava cmq, come mai con le nostre nn è così?
Iantikas
13-07-2007, 15:15
ma cmq la cosa è strana, vi ricordate la presntazione del K10, dove quei mostri hanno elaborato un video in 1080P con la codifica H264 in tempo reale? ecco, molti utenti avevano fatto notare che un connettore 6pin era staccato, e Corsini aveva detto che la scheda funzionava cmq, come mai con le nostre nn è così?
l'avevano montata su una skeda madre con slot pci-e 2.0...ke potendo erogare 150W fa le veci di un attuale slot 1.0 + connettore ausiliario 6pin pci-e...quindi ne bastava solo uno...ciao
webbuffa
13-07-2007, 15:23
l'avevano montata su una skeda madre con slot pci-e 2.0...ke potendo erogare 150W fa le veci di un attuale slot 1.0 + connettore ausiliario 6pin pci-e...quindi ne bastava solo uno...ciao
:) Nice info, thx!
l'avevano montata su una skeda madre con slot pci-e 2.0...ke potendo erogare 150W fa le veci di un attuale slot 1.0 + connettore ausiliario 6pin pci-e...quindi ne bastava solo uno...ciao
è vero nn mi ricordavo:)
siamo in tanti ad avere sta skeduzza... io credevo ke nessuno l'avrebbe comprata, invece... secondo me raga con i nuovi drivers dovremmo riscontrare dei miglioramenti nei game... x ora l'unico ke mi scatta è lost planet... assurdo... faccio si e no 10 fps... :cry: :cry:
l'avevano montata su una skeda madre con slot pci-e 2.0...ke potendo erogare 150W fa le veci di un attuale slot 1.0 + connettore ausiliario 6pin pci-e...quindi ne bastava solo uno...ciao
guè,vedo dalla tua sing che ti è finalmente arrivata la scheduzza:)
siamo in tanti ad avere sta skeduzza... io credevo ke nessuno l'avrebbe comprata, invece... secondo me raga con i nuovi drivers dovremmo riscontrare dei miglioramenti nei game... x ora l'unico ke mi scatta è lost planet... assurdo... faccio si e no 10 fps... :cry: :cry:
Con gli hotfix, compresi nei futuri 7.7 ho sentito gente che fa 50 fps in dx10, fai te.
webbuffa
13-07-2007, 17:26
Con gli hotfix, compresi nei futuri 7.7 ho sentito gente che fa 50 fps in dx10, fai te.
:) Sarà una grandissima revisione la 7.7 Ufficiale, questo è sicuro.
3DMark79
13-07-2007, 17:26
sotto sforzo
i mosfet vengono raffreddati passivamente dal dissipatore originale della hd2900, se viene tolto ovviamente si scaldano.. troppo... mi era successo questo anche con la x1950pro, che montandoci supra il zalman vf900 i circuiti di alimentazione della scheda diventavano roventi, avevo risolto mettendoci sopra dei dissipatori per ram
Adesso capisco il problema subentra quando si cambia dissipatore.
3DMark79
13-07-2007, 17:29
Con gli hotfix, compresi nei futuri 7.7 ho sentito gente che fa 50 fps in dx10, fai te.
Gli hotfix sono per i driver 7.6 giusto?
Ma se non sono usciti i 7.7 come fanno a fare 50 fps?:wtf:
Certo se e vero e grandioso.Ma a quali impostazioni?
arrivato il pacco adesso adesso:D :D :D
domani ci si diverte:D :D
Con gli hotfix, compresi nei futuri 7.7 ho sentito gente che fa 50 fps in dx10, fai te.
ma da dove si scaricano sti hotfix? ki me li linka please? :D
Iantikas
13-07-2007, 17:49
guè,vedo dalla tua sing che ti è finalmente arrivata la scheduzza:)
già :) ...peccato xò ke sto sotto esame e tra questo ed altri impegni me la sto godendo ben poco x ora (l'avrò usata si e no un paio d'ore)...ma recupererò :D ...
...x adesso cmq son + ke soddisfatto...x ora l'ho provata velocemente in Lost Planet, R6V e TDU ed i migliramenti rispetto alla x1900xtx ke avevo prima son davvero notevoli...
...appena ho un pò + d tempo libero faccio qualke test e posto qualke screen con vari gioki...
...ciao
già :) ...peccato xò ke sto sotto esame e tra questo ed altri impegni me la sto godendo ben poco x ora (l'avrò usata si e no un paio d'ore)...ma recupererò :D ...
...x adesso cmq son + ke soddisfatto...x ora l'ho provata velocemente in Lost Planet, R6V e TDU ed i migliramenti rispetto alla x1900xtx ke avevo prima son davvero notevoli...
...appena ho un pò + d tempo libero faccio qualke test e posto qualke screen con vari gioki...
...ciao
te lo avevo detto che non te ne saresti pentito...:)
Con gli hotfix, compresi nei futuri 7.7 ho sentito gente che fa 50 fps in dx10, fai te.
minchias:eek: può essere tutto sto miglioramento?
minchias:eek: può essere tutto sto miglioramento?
ma se nn sn ancora usciti, come fanno ad avere sti incrementi??
ma se nn sn ancora usciti, come fanno ad avere sti incrementi??
infatti si parla di belle betozze!
xò potrebbero essere risultati plausibili...
ma se nn sn ancora usciti, come fanno ad avere sti incrementi??
:boh:è quello che mi chiedo pure io...
non risco a capire il perchè i modder di driver, (il gruppo OMEGA ad esempio) non si siano messi in moto per migliorare i driver originali,eppure ricordo che spece ai tempi della serie 9xxx riuscirono a tirare fuori una stabilità ( spece con le mobo ASus) e delle performance che gli ufficiali si sognavano
Iantikas
13-07-2007, 19:14
non risco a capire il perchè i modder di driver, (il gruppo OMEGA ad esempio) non si siano messi in moto per migliorare i driver originali,eppure ricordo che spece ai tempi della serie 9xxx riuscirono a tirare fuori una stabilità ( spece con le mobo ASus) e delle performance che gli ufficiali si sognavano
probabilmente xkè ora è molto + difficile farli...ciao
raga io attendo ancora ke qualcuno mi posti il link degli hotfix :D
SenderoLuminoso
13-07-2007, 19:31
quindi per la mod a 8 pin basta fare questo?
http://img526.imageshack.us/img526/6167/pontedg2.th.jpg (http://img526.imageshack.us/my.php?image=pontedg2.jpg)
:confused:
Per la mod basta fare cosi si, funziona abilita overdrive ecc ecc. testato. Quidni sono 5 masse (ngr) e 3 12v, ariquindi quello vuoto e da riempire con la massa fili neri o ngr :) ricarica postepay please.....:D :D
Ecco qua gli hotfix (http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=28188)
Torna alla ribalta la possibilità di un'aggiornamento di R600. :eek:
Secondo PCGamesHardware (sito abbastanza serio, è un giornale molto venduto in Germania) a Natale potrebbe uscire la nuova high-end (R680) e per gennaio 2008 dovrebbero uscire le schede di fascia media/medio-alta RV660/670.
Processo a 55nm, UVD e PCIex 2.0 su tutte. :)
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2F%3Farticle_id%3D606500&langpair=de%7Cen&hl=it&safe=off&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Iantikas
13-07-2007, 19:51
raga io attendo ancora ke qualcuno mi posti il link degli hotfix :D
se son quelli ke ti hanno appena linkato secondo me puoi anke evitare d scaricarli...la stessa ati informa ke servono x risolvere un problema legato al crossfire e nient'altro...nn aumentano prestazioni ne in CF nè in skeda singola (altrimenti xkè nn avrebbero dovuto dirlo?)...ciao
Torna alla ribalta la possibilità di un'aggiornamento di R600. :eek:
Secondo PCGamesHardware (sito abbastanza serio, è un giornale molto venduto in Germania) a Natale potrebbe uscire la nuova high-end (R680) e per gennaio 2008 dovrebbero uscire le schede di fascia media/medio-alta RV660/670.
Processo a 55nm, UVD e PCIex 2.0 su tutte. :)
http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2F%3Farticle_id%3D606500&langpair=de%7Cen&hl=it&safe=off&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
:old: si sapeva già ;)
:old: si sapeva già ;)
Anche di R680? Io ero rimasto a quando si pensava ancora che ATi sarebbe passata direttamente a R700. :stordita: :fagiano:
L'ho postata perchè Fudzilla dice che quest'anno non uscirà nessuna nuova scheda di ATi... :confused:
Anche di R680? Io ero rimasto a quando si pensava ancora che ATi sarebbe passata direttamente a R700. :stordita: :fagiano:
L'ho postata perchè Fudzilla dice che quest'anno non uscirà nessuna nuova scheda di ATi... :confused:
sarebbe stato strano... non credo che la ati avesse presentato questa scheda, per poi tornare nel ombra per altri 6 e passa mesi nella realizzazione di r700
X1l10on88
13-07-2007, 21:35
Qualcuno ha il link di download per il Bios di una Gecube 2900XT?
*+*kekko*+*
13-07-2007, 22:34
questa scheda è fantstica:D
questa scheda è fantstica:D
da cosa lo deduci? :stordita:
questa scheda è fantstica:D
già :cool:
da cosa lo deduci? :stordita:
provala e lo capirai :O ti posso solo dire che va al incirca il doppio di quella che hai in firma :asd:
già :cool:
provala e lo capirai :O ti posso solo dire che va al incirca il doppio di quella che hai in firma :asd:
:D :D :D
è arrivata oggi e domani me la spupazzo x bene:D
GunnyITA
14-07-2007, 08:40
:D :D :D
è arrivata oggi e domani me la spupazzo x bene:D
Ecco bravo, cosi' ci sai dire se supera la tua attuale 8800 gts da 320, visto che la hai.
...Una domanda gente. la supera la 8800 gts da 640? O_o
e soprattutto, siccome dovrebbe scaldare come una signora in calore questa scheda, un alimentatore da 500 watt abbastanza buono basta? O bisogna mettere un turboreattore nucleare fatto in casa? :banned:
provala e lo capirai :O ti posso solo dire che va al incirca il doppio di quella che hai in firma :asd:
la firma non la aggiorno da un pò... x la vga ne ho 2 di X2900.... penso mi bastino x il momento:p
Divagando un po' sul tema, EliteBastards ha fatto un sondaggio nel quale ha chiesto "che scheda sceglieresti per i giochi in arrivo nel 2007?" Hanno risposto in 1500, ed ecco i risultati. ;)
http://www.elitebastards.com/hanners/polls/poll-july.png
http://www.elitebastards.com/forum/viewtopic.php?t=19957
Divagando un po' sul tema, EliteBastards ha fatto un sondaggio nel quale ha chiesto "che scheda sceglieresti per i giochi in arrivo nel 2007?" Hanno risposto in 1500, ed ecco i risultati. ;)
http://www.elitebastards.com/hanners/polls/poll-july.png
http://www.elitebastards.com/forum/viewtopic.php?t=19957
Come volevasi dimostrare, del resto...
R600 è una gran architettura...;)
mi sembra più un discorso di prezzo che di architettura, a meno che fossero 1500 intenditori di architetture di SV.
ma va bene lo stesso, la gente deve divertirsi con qualunque SV
Come volevasi dimostrare, del resto...
R600 è una gran architettura...;)
...o forse troppo sopravvalutata :D
raga l'unica paura e ke anke con i drivers ottimizzati nn si riesca ad avere delle prestazioni elevate con sta skeda... spero davvero di aver fatto un buon acquisto... ati nn mi ha mai deluso, quindi io resto in attesa di nuovo drivers... :D
Salve gente, è da un po' che non seguo sta scheda...mi dite un po' se ci sono stati miglioramenti coi nuovi driver e se vince o meno il confronto con la 8800gts? E dalla gtx si distacca parecchio?
Divagando un po' sul tema, EliteBastards ha fatto un sondaggio nel quale ha chiesto "che scheda sceglieresti per i giochi in arrivo nel 2007?" Hanno risposto in 1500, ed ecco i risultati. ;)
http://www.elitebastards.com/hanners/polls/poll-july.png
http://www.elitebastards.com/forum/viewtopic.php?t=19957
occhio che così attiri le ire degli "altri" :asd:
Salve gente, è da un po' che non seguo sta scheda...mi dite un po' se ci sono stati miglioramenti coi nuovi driver e se vince o meno il confronto con la 8800gts? E dalla gtx si distacca parecchio?
su XP la scheda è quasi sempre (tranne in pochi casi) superiore alla GTS e in un caso anche alla GTX, si posiziona tra la GTS e la GTX
edit_user_name_here
14-07-2007, 11:42
la firma non la aggiorno da un pò... x la vga ne ho 2 di X2900.... penso mi bastino x il momento:p
Evoglia ma d'estate rischi che scatta la corrente se tieni il condizionatore acceso :D
Cmq anche io dovrei farlo con quello da 1 gb a 65nm ma con un a8r classica.
Saluti ;)
raga l'unica paura e ke anke con i drivers ottimizzati nn si riesca ad avere delle prestazioni elevate con sta skeda... spero davvero di aver fatto un buon acquisto... ati nn mi ha mai deluso, quindi io resto in attesa di nuovo drivers... :D
Devono essere migliori :D
:asd:
Iantikas
14-07-2007, 11:43
Salve gente, è da un po' che non seguo sta scheda...mi dite un po' se ci sono stati miglioramenti coi nuovi driver e se vince o meno il confronto con la 8800gts? E dalla gtx si distacca parecchio?
mediamente si posizione tra GTS e GTX...senza AA è + vicina alla GTX...attivando l'AA è + vicina alla GTS...
...ciao
mi sembra più un discorso di prezzo che di architettura, a meno che fossero 1500 intenditori di architetture di SV.
ma va bene lo stesso, la gente deve divertirsi con qualunque SV
Sicuramente. Comunque chi frequenta certi forum un minimo di conoscenza delle alternative e della situazione delle performances ce le ha. Evidentemente comunque, a differenza di quanto alcuni dissero appena venne lanciata, R600 non è un flop (lo dimostrerebbe anche quanto detto dalla redazione di HWUpgrade a proposito delle vendite). ;)
Ecco bravo, cosi' ci sai dire se supera la tua attuale 8800 gts da 320, visto che la hai.
...Una domanda gente. la supera la 8800 gts da 640? O_o
e soprattutto, siccome dovrebbe scaldare come una signora in calore questa scheda, un alimentatore da 500 watt abbastanza buono basta? O bisogna mettere un turboreattore nucleare fatto in casa? :banned:
mmm guarda sicuramente supera la gts da 640.
diciamo che oggettivamente quello che ho letto è + o - giusto
senza filtri ci avviciniamo ad una gtx con i filtri ad un gts ovviamente il tutto con giochi dx9 visto che le dx9 non digeriscono bene l'aa in shader.
o meglio forse diciamola tutta se no sembra colpa delle dx9.
le dx9 di loro non supportano un aa in shader che invece è prerogativa delle dx10. ergo mentre nvidia ha scelto abbastanza lungimiratamente di mantenere un aa solito di post processing ati ha scelto invece di passare subito all'aa in shader che ovviamente eseguendolo in dx9 risulta moltopesante.
sotto vista e dx10 possiamo benissimo affermare x quel poco che si è visto che una 2900 stia tra una gtx e una ultra.
aggiorno che cmq un ali da 500w dovrebbe andar bene io ho un titan sli da 560 e nn da problemi.
Iantikas
14-07-2007, 13:22
...anke G80 può fare l'AA via shader...e non tutti i gioki DX10 rikiederanno ke l'aa sia fatto tramite shader...e resta cmq il fatto ke R600 può farlo SOLO tramite shader mentre G80 in entrambi i modi...e nei gioki DX9 attuali sfruttare l'HW dedicato x l'AA è molto + efficente ke usare gli shader...
...x quanto riguarda le performance DX10 eviterei di dare proprio un parere (x la mancanza d dati oggettivi e bench seri su cui poter basare un analisi)...anke xkè nell'attuale scenario DX10 la + prestante in ogni caso fornisce prestazioni + ke deludenti...ciao
Io mi preoccuperei poco dei filtri ora, visto che probabilmente con dx10 per avere l'AA si dovrà farlo via shaders, soluzione che di fatto Amd ha anticipato, anche perchè già in dx9 molti titoli, abilitando taluni effetti, o motori grafici (tipo quello di Unreal o Stalker), non permettevano l'abilitazione contemporanea.
...anke G80 può fare l'AA via shader...e non tutti i gioki DX10 rikiederanno ke l'aa sia fatto tramite shader...e resta cmq il fatto ke R600 può farlo SOLO tramite shader mentre G80 in entrambi i modi...e nei gioki DX9 attuali sfruttare l'HW dedicato x l'AA è molto + efficente ke usare gli shader...
...x quanto riguarda le performance DX10 eviterei di dare proprio un parere (x la mancanza d dati oggettivi e bench seri su cui poter basare un analisi)...anke xkè nell'attuale scenario DX10 la + prestante in ogni caso fornisce prestazioni + ke deludenti...ciao
si infatti il dx10 è uno standard molto free per l'aa che si puo fare via shader o in postprocessing.
in assoluto in dx9 il postprocessing è decisamente migliore anche xè viene eseguito dalle rops di g80 che hanno una frequenza maggiore rispetto agli shader di r600.
ovviamente il parere in dx10 è dato dall'unico test in rete è call of juarez e quindi non possiamo che nn basarci su questo
Tidus.hw
14-07-2007, 19:39
ciao, qualcuno sa se amd ha gia' rilasciato il compilatore per programmare sulle hd2k?
-Feanor-
14-07-2007, 20:51
nwn2 sara il primo gioco che correro a comprare appena cambiero pc.. perche sono mesi che non vedo l'ora di giocarci...ora pero girovagando sul web ho trovato questo (estrapolato da una recensione di pochi giorni fa...)
http://img149.imageshack.us/img149/3166/nwn24xas0.gif (http://imageshack.us)
:eek: ...ora...sapevo benissimo che nwn2 avesse dei problemi enormi di pesantezza...ma cosi enormi..??:eek:....io personalmente credo che questi risultati sia un po falsati...c'è qualcuno con 2900xt che puo provare questo gioco e dirmi com'è la situazione...??grazie mille...
Mister Tarpone
14-07-2007, 21:01
nwn2 sara il primo gioco che correro a comprare PPWN cMBIto pc.. perche sono mesi che non vedo l'ora di giocarci...ora pero girovagando sul web ho trovato questo (estrapolato da una recensione di pochi giorni fa...)
http://img149.imageshack.us/img149/3166/nwn24xas0.gif (http://imageshack.us)
:eek: ...ora...sapevo benissimo che nwn2 avesse dei problemi enormi di pesantezza...ma cosi enormi..??:eek:....io personalmente credo che questi risultati sia un po falsati...c'è qualcuno con 2900xt che puo provare questo gioco e dirmi com'è la situazione...??grazie mille...
questi test a 1280x sono senza aa :asd: altrimenti andrebbero tolti un botto di fps :asd:
http://img257.imageshack.us/img257/2447/116ln4.jpg
altri test con una 7900GT e 8600GTS a 1280x senza AA
http://img297.imageshack.us/img297/1021/e689013e469614127b33038ke1.jpg
su schede dx9 come la 7900GT, il risultato senza filtri attivati è quasi = a quello della 8600GTS con i filtri aa 4x :asd:
dopo tutti questi test, il mio verdetto è che questo gioco è un mattone vergognoso :nono:
ciao :sbonk:
;)
-Feanor-
14-07-2007, 21:29
questi test a 1280x sono senza aa :asd: altrimenti andrebbero tolti un botto di fps :asd:
http://img257.imageshack.us/img257/2447/116ln4.jpg
http://img518.imageshack.us/img518/2138/e689013e469614127b33038xf4.jpg
su schede dx9 come la 7900GT, il risultato senza filtri attivati è quasi = a quello della 8600GTS con i filtri aa 4x :asd:
dopo tutti questi test, il mio verdetto è che questo gioco è un mattone vergognoso :nono:
ciao :sbonk:
;)
quindi mi confermi quello che ho postato.:eek: ..che era un mattone indegno lo sapevo...ma una cosa cosi indicibile non me l'aspettavo mica...:eek: :(
Mister Tarpone
14-07-2007, 21:31
quindi mi confermi quello che ho postato.:eek: ..che era un mattone indegno lo sapevo...ma una cosa cosi indicibile non me l'aspettavo mica...:eek: :(
mattone esagerato :mano:
mattone esagerato :mano:
quoto!;)
-Feanor-
14-07-2007, 22:30
:muro: :muro:...li temevo dei risultati del genere... magari c'è anche qualcuno con la 2900xt che l'ha provato ...?? puo postare le impressioni su fluidita ecc....?? grazie...
Iantikas
14-07-2007, 22:39
:muro: :muro:...li temevo dei risultati del genere... magari c'è anche qualcuno con la 2900xt che l'ha provato ...?? puo postare le impressioni su fluidita ecc....?? grazie...
sullo stesso sito ke hai linkato prima trovi anke i risultati della hd2900xt...inoltre tutti gli altri siti ke hanno provato R600 con quel gioco mostrano + o - gli stessi risultati...nn credo c siano dubbi su come possa andare e proprio x questo difficilmente ki possiede una hd2900xt avrà quel gioco...
...è un gioco ke stressa molto le unità d texturing e ne vuole parekkie x girare decentemente (bisogna avere da una GTX in su x giocare al max dettaglio e cmq nn sopra i 1280x1024 e al limite della fluidità)...già la GTS va abb peggio...x nn parlare della vekkia gen DX9 sia ati/nvidia...
...x me è un gioco ke può benissimo rimanere sullo scaffale :D ...ciao
-Feanor-
14-07-2007, 22:46
sullo stesso sito ke hai linkato prima trovi anke i risultati della hd2900xt...inoltre tutti gli altri siti ke hanno provato R600 con quel gioco mostrano + o - gli stessi risultati...nn credo c siano dubbi su come possa andare e proprio x questo difficilmente ki possiede una hd2900xt avrà quel gioco...
...è un gioco ke stressa molto le unità d texturing e ne vuole parekkie x girare decentemente (bisogna avere da una GTX in su x giocare al max dettaglio e cmq nn sopra i 1280x1024 e al limite della fluidità)...già la GTS va abb peggio...x nn parlare della vekkia gen DX9 sia ati/nvidia...
...x me è un gioco ke può benissimo rimanere sullo scaffale :D ...ciao
grazie dei dettagli tecnici..!!! cmq mi sarebbe interessato molto sentire chi l'ha provato su questa scheda....
p.s. potra rimanere sugli scaffali per te che evidentemente non sei un gdriano..:Prrr: :D ..è ovvio che in questo gioco il lato tecnico è stato trascurato pesantemente ma d'altronde mica è un fps :Prrr: ....quello che ne fa un gran gioco sono gameplay, longevita (pressoche infinita grazie all editor) profondita e trama...poi ovviamente come tutto puo anche far schifo a qualcuno :D ....cmq limitiamoci a parlarne focalizzandoci sui problemi e dettagli tecnici (su 2900xt) altrimenti siamo decisamente OT :D
Iantikas
14-07-2007, 23:18
grazie dei dettagli tecnici..!!! cmq mi sarebbe interessato molto sentire chi l'ha provato su questa scheda....
p.s. potra rimanere sugli scaffali per te che evidentemente non sei un gdriano..:Prrr: :D ..è ovvio che in questo gioco il lato tecnico è stato trascurato pesantemente ma d'altronde mica è un fps :Prrr: ....quello che ne fa un gran gioco sono gameplay, longevita (pressoche infinita grazie all editor) profondita e trama...poi ovviamente come tutto puo anche far schifo a qualcuno :D ....cmq limitiamoci a parlarne focalizzandoci sui problemi e dettagli tecnici (su 2900xt) altrimenti siamo decisamente OT :D
si infatti nn volevo mica dire ke fa skifo a priori, solo ke a me nn m'attira...
...cmq dalla sua ha ke basta un framerate intorno ai 30fps x avere un gameplay del tutto fluido...il problema è ke 30fps son cmq difficili da raggiungere se si vogliono sparare tutti gli effetti al max (sopratutto riflessioni, ombre etc mentre poco effetto ha l'AA e se s cerca qualke frame piuttosto ke togliere lui conviene abb la ris)...
...il problema con le ultime skede d casa ATI è ke questo gioco pesa un casino sulle unità d texturing...+ se ne hanno meglio è (infatti è un gioco dove è molto marcata la differenza GTS/GTX)...serie x1800/1900 nn riescono a garantire un gameplay fluido neanke a 1024x768 se si mette tutto al max e si abilitano i filtri (la hd2900xt c sta a malapena ma cmq con qualke rallentamento)...
...dalla parte nvidia invece 7950GX2, 8800GTS/GTX/Ultra riescono a garantire un gameplay fluido a 1280x1024 tutto al max e con filtri (la gx2 pelo pelo...mentre GTX/Ultra ne hanno x alzare un pò la ris pare anke fino a 1600x1200...ma son un pò scettico)...
...queste son tutte le info ke mi ricordo su questo gioco racimolate dalle varie rece in giro (cmq da siti abb attendibili)....io nn l'ho mai provato e penso ke mai lo proverò :D ...ciao
-Feanor-
14-07-2007, 23:27
si infatti nn volevo mica dire ke fa skifo a priori, solo ke a me nn m'attira...
...cmq dalla sua ha ke basta un framerate intorno ai 30fps x avere un gameplay del tutto fluido...il problema è ke 30fps son cmq difficili da raggiungere se si vogliono sparare tutti gli effetti al max (sopratutto riflessioni, ombre etc mentre poco effetto ha l'AA e se s cerca qualke frame piuttosto ke togliere lui conviene abb la ris)...
...il problema con le ultime skede d casa ATI è ke questo gioco pesa un casino sulle unità d texturing...+ se ne hanno meglio è (infatti è un gioco dove è molto marcata la differenza GTS/GTX)...serie x1800/1900 nn riescono a garantire un gameplay fluido neanke a 1024x768 se si mette tutto al max e si abilitano i filtri (la hd2900xt c sta a malapena ma cmq con qualke rallentamento)...
...dalla parte nvidia invece 7950GX2, 8800GTS/GTX/Ultra riescono a garantire un gameplay fluido a 1280x1024 tutto al max e con filtri (la gx2 pelo pelo...mentre GTX/Ultra ne hanno x alzare un pò la ris pare anke fino a 1600x1200...ma son un pò scettico)...
...queste son tutte le info ke mi ricordo su questo gioco racimolate dalle varie rece in giro (cmq da siti abb attendibili)....io nn l'ho mai provato e penso ke mai lo proverò :D ...ciao
ok....allora ci siamo chiariti un po sui nostri reciproci gusti :mano: ;)
ad ogni modo grazie della spiegazione...ma quando parli di unita di texturing ti riferisci a TMU (e ROPS)...???? sugli fps non stento a credere che risulti quasi fluido anche a 30fps (un po come dirt) ....ma che la 2900xt (e anche le 8800 sebbene in maniera minore) stia anche lei sui 30 è stato un po un pugno nello stomaco..
Alessio.16390
15-07-2007, 03:51
ok....allora ci siamo chiariti un po sui nostri reciproci gusti :mano: ;)
ad ogni modo grazie della spiegazione...ma quando parli di unita di texturing ti riferisci a TMU (e ROPS)...???? sugli fps non stento a credere che risulti quasi fluido anche a 30fps (un po come dirt) ....ma che la 2900xt (e anche le 8800 sebbene in maniera minore) stia anche lei sui 30 è stato un po un pugno nello stomaco..
Hai la firma fuori regolamento :O
edit_user_name_here
15-07-2007, 05:33
CUT
Io volere test filtri con 2900 :D
Cmq mi sembra davvero un marketing (x me è marketing ;) )assurdo fare giochi mattoni per gdristi o per dei giocatori x il D&D (io lo sono ^^)x essere costretti a comprare delle schede assurde per giocare almeno a 1024 senza filtri ed avere almeno 30 fps -.-'
Cioè... secondo voi riuscirò almeno a giocare con un cf? :D
Very p.s.: ma sono testati con gli ultimi driver? sai comè... ;)
-Feanor-
15-07-2007, 10:03
Io volere test filtri con 2900 :D
Cmq mi sembra davvero un marketing (x me è marketing ;) )assurdo fare giochi mattoni per gdristi o per dei giocatori x il D&D (io lo sono ^^)x essere costretti a comprare delle schede assurde per giocare almeno a 1024 senza filtri ed avere almeno 30 fps -.-'
Cioè... secondo voi riuscirò almeno a giocare con un cf? :D
Very p.s.: ma sono testati con gli ultimi driver? sai comè... ;)
anche io lo sono ;) ...cmq non credo proprio sia cosi ladrata...al massimo questo discorso vale per gli amanti degli fps :sofico: ...è solo che alla obsidian hanno trascurato di brutto l'aspetto tecnico...e loro stessi ne sono ben consapevoli...tanto che le pacth hanno gia migliorato la compatibilita e nell espansione miglioreranno il codice del motore ;) ....cmq x quanto riguarda la 2900xt penso che stia molto ai driver infatti non penso proprio che questo sia il primo gioco a cui abbiano pensato nell ottimizzare le prime release....;)
@alessio
io a 1024 vedo 2 righe e mezzo :confused:
qualcuno sa qualcosa sull'uscita dei nuovi driver? l'hotfix è stato rilascito cmq da più di 2 settimane (anzi forse da 3) e per la certificazione di MS è passato abbastanza tempo, no?
-Feanor-
15-07-2007, 10:18
qualcuno sa qualcosa sull'uscita dei nuovi driver? l'hotfix è stato rilascito cmq da più di 2 settimane (anzi forse da 3) e per la certificazione di MS è passato abbastanza tempo, no?
l'esperienza ormai insegna che i driver vengono rilasciati dopo il 20 del mese corrente ;)
l'esperienza ormai insegna che i driver vengono rilasciati dopo il 20 del mese corrente ;)
ok, Grazie!
Iantikas
15-07-2007, 10:34
ma quando parli di unita di texturing ti riferisci a TMU (e ROPS)...????
al fatto ke la hd2900xt ha 16 unità x il filtraggio delle texture (G80 x es ne ha 64, mentre son allineate x quanto riguarda le texture address unit d cui entrambe ne hanno 32)...e ke R600 può processare 16 pixel x ogni ciclo (32 se son Z-only ma GTX arriva a 192 in questo caso) contro i 24 della GTX e i 20 della GTS (anke se la situazione si riequilibra un pò dato ke R600 lavora a 743mhz, mentre GTX/GTS a 575/513mhz)...
...dicono ke il motore d neverwinternights 2 dipende molto da queste unità quindi è normale ke R600 s trovi in svantaggio...ciao
Io volere test filtri con 2900 :D
Cmq mi sembra davvero un marketing (x me è marketing ;) )assurdo fare giochi mattoni per gdristi o per dei giocatori x il D&D (io lo sono ^^)x essere costretti a comprare delle schede assurde per giocare almeno a 1024 senza filtri ed avere almeno 30 fps -.-'
Cioè... secondo voi riuscirò almeno a giocare con un cf? :D
Very p.s.: ma sono testati con gli ultimi driver? sai comè... ;)
decisamente al contrariodi nwn1 dove vi ricordate si poteva scegliere la path dx o ogl e per chi aveva le radeon 8500 o 9700 c'era la possibilità di avere il bellissimo trueform.
se vi posso consigliare qualcosa di carino e abbastanza leggero date un occhiata a temple of elemental evil non è male
-Feanor-
15-07-2007, 10:37
al fatto ke la hd2900xt ha 16 unità x il filtraggio delle texture (G80 x es ne ha 64, mentre son allineate x quanto riguarda le texture address unit d cui entrambe ne hanno 32)...e ke R600 può processare 16 pixel x ogni ciclo (32 se son Z-only ma GTX arriva a 192 in questo caso) contro i 24 della GTX e i 20 della GTS (anke se la situazione si riequilibra un pò dato ke R600 lavora a 743mhz, mentre GTX/GTS a 575/513mhz)...
...dicono ke il motore d neverwinternights 2 dipende molto da queste unità quindi è normale ke R600 s trovi in svantaggio...ciao
grazie mille....anche se questo discorso me la ricordavo gia abbastanza bene...;)
ad ogni modo purtroppo qst gioco è manifesto dell ottimizzazione sempre piu da porci che stiamo vedendo da un annetto a questa parte :( ...
-Feanor-
15-07-2007, 10:39
decisamente al contrariodi nwn1 dove vi ricordate si poteva scegliere la path dx o ogl e per chi aveva le radeon 8500 o 9700 c'era la possibilità di avere il bellissimo trueform.
se vi posso consigliare qualcosa di carino e abbastanza leggero date un occhiata a temple of elemental evil non è male
ma è uno dei giochi piu buggati della storia ;) ...cmq chiudiamo l ot sui gdr e focalizziamoci sull aspetto tecnico...se passa un mod ci randella :sofico: :)
installata la vga oggi con i dvr 7.6
l'unica cosa che adesso mi chiede i dvr uaa microsoft ovviamente per via del chip audio 5.1 per hdmi.
qualcunosa dove prenderli sul sito microsoft nn trovo nulla.
Iantikas
15-07-2007, 18:55
installata la vga oggi con i dvr 7.6
l'unica cosa che adesso mi chiede i dvr uaa microsoft ovviamente per via del chip audio 5.1 per hdmi.
qualcunosa dove prenderli sul sito microsoft nn trovo nulla.
li puoi prendere dal sito ati...dalla stessa pag dove scariki i cat 7.6...cmq io nn li ho messi ke tanto nn mi serve al momento quella funzionalità...ciao
np trovati ci ho pensato dopo.
io li ho messi xè ad ogni avvio di windows mi dice che ha trovato una periferica audio pci e quindi per nna vere lo sbattimento ogni volta li ho messi
gianni1879
15-07-2007, 22:18
Non so se stato già postato ma la nuova versione di atitool permette di cambiare i voltaggi della hd2900xt :)
quindi per gli smanettorni divertitevi ed occhio alle temp :)
- Added monitoring window
- Added basic overclocking for R600 (please test and feedback, how about R600 CF?)
- Added detection and monitoring for RV63x
- NO VISTA RELATED CHANGES (yet)
Ecco dove se ne parla sul forum di techpowerup -->link (http://forums.techpowerup.com/showthread.php?t=33447)
link per il downloading --> ATITool 0.27 Beta2 (http://www.xtremehardware.it/upload/AtiTool/ATITool_0.27b2.exe)
Non so se stato già postato ma la nuova versione di atitool permette di cambiare i voltaggi della hd2900xt :)
quindi per gli smanettorni divertitevi ed occhio alle temp :)
- Added monitoring window
- Added basic overclocking for R600 (please test and feedback, how about R600 CF?)
- Added detection and monitoring for RV63x
- NO VISTA RELATED CHANGES (yet)
Ecco dove se ne parla sul forum di techpowerup -->link (http://forums.techpowerup.com/showthread.php?t=33447)
link per il downloading --> ATITool 0.27 Beta2 (http://www.xtremehardware.it/upload/AtiTool/ATITool_0.27b2.exe)
:old: :D
Iantikas
16-07-2007, 00:44
np trovati ci ho pensato dopo.
io li ho messi xè ad ogni avvio di windows mi dice che ha trovato una periferica audio pci e quindi per nna vere lo sbattimento ogni volta li ho messi
io invece gli ho detto d nn rikiedere + l'instllazione dei driver...cmq, x curiosità, hai instllato solo i driver o anke la patch ke fornisce ati?...ciao
edit_user_name_here
16-07-2007, 01:03
anche io lo sono ;) ...cmq non credo proprio sia cosi ladrata...al massimo questo discorso vale per gli amanti degli fps :sofico: ...è solo che alla obsidian hanno trascurato di brutto l'aspetto tecnico...e loro stessi ne sono ben consapevoli...tanto che le pacth hanno gia migliorato la compatibilita e nell espansione miglioreranno il codice del motore ;) ....cmq x quanto riguarda la 2900xt penso che stia molto ai driver infatti non penso proprio che questo sia il primo gioco a cui abbiano pensato nell ottimizzare le prime release....;)
@alessio
io a 1024 vedo 2 righe e mezzo :confused:
Tengo a precisare che mi piace il D&D ma non la parte del gdr :asd: e cmq un minimo di fps ci vogliono almeno di 30...
Inoltre gioco anche a game in prima persona :D
Invece sulla scheda credo che un po recupererà ed arriverà almeno vicino alla gts imho (poi non so dire x la verità :D perchè ho solo nwn 1 per il momento).
(Non ho ancora la 2900 ;) )
decisamente al contrariodi nwn1 dove vi ricordate si poteva scegliere la path dx o ogl e per chi aveva le radeon 8500 o 9700 c'era la possibilità di avere il bellissimo trueform.
se vi posso consigliare qualcosa di carino e abbastanza leggero date un occhiata a temple of elemental evil non è male
Per ora rimango a nwn 1 però quando ci saranno le nuove espanzioni, oltre alla scheda x supportarla :asd:, allora si penserà di cambiare nwn 1 ed ancra sul 2 ;)
Saluti
Il motore di NWN2 è ottimizzato male, anche se non eccedendo col dettaglio io su 1650XT facevo un buon frame rate, il problema è che anche aumentando le capacità video, che so con la 1900GT, resta sempre più o meno agli stessi livelli, e anche come processore un 3600X2 non dovrebbe aver problemi o essere un collo di bottiglia.
Non l'ho provato su Hd2900XT, ma lo testerò su Hd2600XT GDR4, ma resta poco significativo.
Io aspetto i 7.7 per Lost Planet, vorrei provarlo meglio prima di classifficarlo tra il vomito e il conato ;)
gianni1879
16-07-2007, 08:39
:old: :D
come non detto :asd:
era da un paio di gg che non seguivo il 3d
Il motore di NWN2 è ottimizzato male, anche se non eccedendo col dettaglio io su 1650XT facevo un buon frame rate, il problema è che anche aumentando le capacità video, che so con la 1900GT, resta sempre più o meno agli stessi livelli, e anche come processore un 3600X2 non dovrebbe aver problemi o essere un collo di bottiglia.
Non l'ho provato su Hd2900XT, ma lo testerò su Hd2600XT GDR4, ma resta poco significativo.
Io aspetto i 7.7 per Lost Planet, vorrei provarlo meglio prima di classifficarlo tra il vomito e il conato ;)
è un bel gioco lost planet, provalo bene
ale0bello0pr
16-07-2007, 18:35
Aridaje povera ATI.....
e povera AMD....
http://www.tomshw.it/news.php?newsid=10790
manco nasce che gia' muore.....
Non vedo l'ora di prendere una SAMSUNG HD 3900 XTX con memoria espandibile... :asd:
appleroof
16-07-2007, 18:38
Aridaje povera ATI.....
e povera AMD....
http://www.tomshw.it/news.php?newsid=10790
manco nasce che gia' muore.....
Non vedo l'ora di prendere una SAMSUNG HD 3900 XTX con memoria espandibile... :asd:
azz.
-Feanor-
16-07-2007, 19:07
Aridaje povera ATI.....
e povera AMD....
http://www.tomshw.it/news.php?newsid=10790
manco nasce che gia' muore.....
Non vedo l'ora di prendere una SAMSUNG HD 3900 XTX con memoria espandibile... :asd:
beh...samsung garantirebbe delle risorse che amd si sogna...
Aridaje povera ATI.....
e povera AMD....
http://www.tomshw.it/news.php?newsid=10790
manco nasce che gia' muore.....
Non vedo l'ora di prendere una SAMSUNG HD 3900 XTX con memoria espandibile... :asd:
wow...prima la amd si mangia la ati, e ora la samsung si mangia ati e amd insieme, (spero di no cmq...) :asd: poi arriverà pure la m$ (che nel frattemo si sarà cimentata a fare microchip ultra futuristici :asd: ) che si mangerà tutto :asd:
mi sa davverò che la amd, facendo quella mossa azzardata di acquisire la ati, porterà al fallimento di entrambe...
-Feanor-
16-07-2007, 19:37
wow...prima la amd si mangia la ati, e ora la samsung si mangia ati e amd insieme, (spero di no cmq...) :asd: poi arriverà pure la m$ (che nel frattemo si sarà cimentata a fare microchip ultra futuristici :asd: ) che si mangerà tutto :asd:
mi sa davverò che la amd, facendo quella mossa azzardata di acquisire la ati, porterà al fallimento di entrambe...
infatti...io ho sempre sostenuta che ati avrebbe fatto di meglio in generale se fosse rimasta indipendente..certo....magari con qualche difficolta di risorse...ma non ci sarebbe stato paragone,...
azz.
imho può fare solo bene, avere le spalle coperte da un colosso come samsung può mettere paura sia a intel che a nvidia :)
infatti...io ho sempre sostenuta che ati avrebbe fatto di meglio in generale se fosse rimasta indipendente..certo....magari con qualche difficolta di risorse...ma non ci sarebbe stato paragone,...
già... :( cmq a che notizia di oggi ti riferisci? (nella firma)
-Feanor-
16-07-2007, 19:59
già... :( cmq a che notizia di oggi ti riferisci? (nella firma)
infatti :sob: .........[Ot] cmq è questa http://www.hwupgrade.it/news/cpu/processori-a-1333-mhz-di-bus-e-taglio-di-prezzo-per-intel_21973.html :rolleyes: ..in pratica si parla della nuova serie e6x50....ma non si dice piu niente sul taglio dei prezzi annunciato precedentemente del 22 luglio (leggi q6600 a 266$) :ncomment: :muro:
infatti :sob: .........[Ot] cmq è questa http://www.hwupgrade.it/news/cpu/processori-a-1333-mhz-di-bus-e-taglio-di-prezzo-per-intel_21973.html :rolleyes: ..in pratica si parla della nuova serie e6x50....ma non si dice piu niente sul taglio dei prezzi annunciato precedentemente del 22 luglio (leggi q6600 a 266$) :ncomment: :muro:
ha... tranquillo allora, xke entrerà in commercio il Q6700 a 530$ (prezzo del attuale Q6600) , e lo scalino successivo del Q6600 sarà appunto 266$ ;)
io ho sentito che con la nuova fusione verranno introdotte le 3000XT con HD integrato da 30Gb ad altissimo trasferimento
Grave Digger
16-07-2007, 21:41
io ho sentito che con la nuova fusione verranno introdotte le 3000XT con HD integrato da 30Gb ad altissimo trasferimento
e la marmotta incarta la cioccolata :asd:
ragazzi ma perchè farsi tutte ste pippe :D ????
mah la notizia viene da "the inquirer" che nsomma non è il top della attendibilità.
io ho sentito che con la nuova fusione verranno introdotte le 3000XT con HD integrato da 30Gb ad altissimo trasferimento
ti sbagli :rolleyes: verranno introdotte le gpu quantistiche :asd:
Grave Digger
16-07-2007, 22:00
ti sbagli :rolleyes: verranno introdotte le gpu quantistiche :asd:
ma veramente hanno intenzione di rendere il pc progetto NASA alla portata di tutte le tasche :asd:
-Feanor-
16-07-2007, 22:03
ma veramente hanno intenzione di rendere il pc progetto NASA alla portata di tutte le tasche :asd:
perche pensi che i pc che abbiamo noi (beh...non proprio io :sigh:) non siano come prestazioni equiparabili a quelli della NASA di non molti anni fa...???:sofico: ;)
perche pensi che i pc che abbiamo noi (beh...non proprio io :sigh:) non siano come prestazioni equiparabili a quelli della NASA di non molti anni fa...???:sofico: ;)
se contate che lo shuttle vola ancora con dei 486 in serie;)
ed interfaccia grafica ancora sotto dos^^.
se contate che lo shuttle vola ancora con dei 486 in serie;)
ed interfaccia grafica ancora sotto dos^^.
non si fidano di questi forni :asd:
e fanno bene :O
CMQ torniamo in topic.
oggi è stato il primo reale giorno di test della hd2900.
sicuramente una bella schedina iniziamo i raffronti con la 8800gts.
le temperatura sono abbastanza similari entrambe 50 gradi in idle e 70 gradi nell'esecuzione del 3dmark06 temperature rilevate per entrambe tramite rivatuner.
ergo non mi sembra scaldi + della 8800gts contate che il test era fatto alle ore 17 del pomeriggio in locale non climatizzato.
altra differenza la ventola allora la ventola della 8800gts parte gia impostata a 2700giri che è il 60% per arrivare a circa 4500 giri se impostata al 100%.
contate che la radeon è inpostata a circa 2000giri al 30%.
la rumorosità gia cosi xò è oggettivamente superiore alla 8800gts quando la temperatura sale superiore ai 70 gradi la ventola inizia a girare al 37% quindi un 2700rpm e la rumorosità arriva a superare una 8800gts al 100%.
la scheda con un 100 % di ventola è davvero un fono mentre con la 8800gts la si poteva impostare senza eccessivo rumore.
qualche prova di oc...
la vga sempre con ventola termocontrollata(non come la 8800gts che si poteva mettere al 100% e cmq sperare di utilizzare questa impostazione che nella radeon è davvero una turbina a reazione)
ha retto pre frequenze di core fino a 800.
a 825mhz non chiude il 3dmark06.
le ram sono state una piacevole sorpresa per adesso non danno artefatti nemmeno a 1000mhz per una banda passante di ben 125gb.
e credo che un altra 25-50 possano ancora essere spremuti.
Grave Digger
16-07-2007, 22:25
perche pensi che i pc che abbiamo noi (beh...non proprio io :sigh:) non siano come prestazioni equiparabili a quelli della NASA di non molti anni fa...???:sofico: ;)
io mi riferivo al cubo,e come potenza computazionale siamo ancora ben lontani ;) .....
ale0bello0pr
16-07-2007, 22:50
mah la notizia viene da "the inquirer" che nsomma non è il top della attendibilità.
però la stessa cosa è successa quando si diceva che AMD avrebbe acquistato ATI......e così fu.... ipse dixit.... the inquirer a volte fa dei grossi stupori..:O
-Feanor-
16-07-2007, 22:50
io mi riferivo al cubo,e come potenza computazionale siamo ancora ben lontani ;) .....
beh non vuoi mica fare un confronto con i computer quantistici magari :sofico: ..
@catan...mi descrivi meglio la situazione rumore anche tu...?grazie...della serie si puo giocare di notte o si sveglia tutta la casa...? :stordita:
-Feanor-
16-07-2007, 22:51
però la stessa cosa è successa quando si diceva che AMD avrebbe acquistato ATI......e così fu.... ipse dixit.... the inquirer a volte fa dei grossi stupori..:O
infatti..non volevo dirlo io.....:asd::asd::asd:
GunnyITA
17-07-2007, 00:23
Avete fatto qualcosa voi per ridurre la rumorosita? :D
Beccatevi sto video
http://youtube.com/watch?v=YIaPUBI-eFc&mode=related&search=
Dite che quando si gioca raggiunge il 100% e fa sto casino? rischio di aprire un aeroporto a casa mia lol :help:
:mc:
beh non vuoi mica fare un confronto con i computer quantistici magari :sofico: ..
@catan...mi descrivi meglio la situazione rumore anche tu...?grazie...della serie si puo giocare di notte o si sveglia tutta la casa...? :stordita:
giocando di notte a case chiuso si gioca tranquilli.
per le temperatura per ora la mia anche dopo 10 3dmark06 di test per testarne la stabilità@800-1000 non supera mai i 71gradi ergo la ventola non gira mai sopra il 37%.
diciamo non cosi rumorosa come molti la dipingono.
cmq sicuramente + rumorosa della 8800gts
Iantikas
17-07-2007, 00:41
Avete fatto qualcosa voi per ridurre la rumorosita? :D
Beccatevi sto video
http://youtube.com/watch?v=YIaPUBI-eFc&mode=related&search=
Dite che quando si gioca raggiunge il 100% e fa sto casino? rischio di aprire un aeroporto a casa mia lol :help:
:mc:
la ventola al 100% nn la vedrai mai...ma neanke al 50%...
...in idle la ventola gira a 1440rpm ke equivalgono al 25%...con load leggeri gira a 2070rpm ke equivalgono al 31%...con load prolungati e pesanti quando la skeda tocca i 70° la ventola va a 2560rpm ossia al 37% e la temp rimane fissa a 70° pure dopo 10 3dmark06 d fila...
...l'unico regime veramente silenzioso cmq è quello in idle con la ventola al 25% (gli altri due son abb rumorosi)...
...c'è d buono cmq ke anke in oc la temp rimane quella d 70° in full load (ogni tanto va a 71°) e la ventola nn va oltre il 37% e questo a 850/900 ke son le freq ke tengo x adesso in attesa d trovare il limite delle ram (mentre 850mhz è il limite della GPU col dissi originale con impostazioni default)...
...ciao
Tidus.hw
17-07-2007, 08:42
ragazzi questo pomeriggio mi arriva la scheda :D
avrei una domanda, gli hotfix per i cat7.6 ci sono solo per xp? mi sembrava di aver letto così 0.0
io adesso ho windows vista ultimate e mi funziona alla grande, dite che posso tenermi questo o per giocare i titoli dx9 è meglio xp?
GunnyITA
17-07-2007, 09:22
secondo me e' meglio che ti crei 2 partizioni. Spero che tu abbia un hard disk capiente per farlo almeno :S dai 320 gb in su.
Adesso mi faro' un pc con i controca..... e montero' sta scheda....dovro' prenderci un po' di mano perke' non ho mai provato ATI in vita mia e sono curioso di vedere come si comporta questo missile :oink:
+Lonewolf+
17-07-2007, 11:55
ragazzi questo pomeriggio mi arriva la scheda :D
avrei una domanda, gli hotfix per i cat7.6 ci sono solo per xp? mi sembrava di aver letto così 0.0
io adesso ho windows vista ultimate e mi funziona alla grande, dite che posso tenermi questo o per giocare i titoli dx9 è meglio xp?
gli hotfix ci sono sia per xp che per vista ma devi avere le versioni a 32bit;)
Tidus.hw
17-07-2007, 12:31
gli hotfix ci sono sia per xp che per vista ma devi avere le versioni a 32bit;)
ah ok, io ho la versione 32bit...
la 2900xt è già in negozio :D
devo solo andarla a prendere :Q_______________
ah ok, io ho la versione 32bit...
la 2900xt è già in negozio :D
devo solo andarla a prendere :Q_______________
e vaiii :asd:
Per vedere le migliorie dei driver io aspetto i 7.7 (prima di tutto perchè non installo quasi mai i beta, poi perchè ho un SO 64 Bit), mi aspetto comunque un miglioramento su Oblivion con i filtri.
per ora con i hotfix ci sono dei bug grafici in stalker, sulle ombre soprattutto, niente di osceno però :p mentre la nebbia in half life 2 permane... spero che con i 7.7 risolvano
Ma ati è a conoscenza di questi bug ?!? Qualcuno ha provveduto a segnalarli ?!?
Che io sappia sta programmando il primo driver per il controller ram a 512 bit, per sostituire l'attuale che dovrebbe essere paro paro quello a 256 bit.
Che io sappia sta programmando il primo driver per il controller ram a 512 bit, per sostituire l'attuale che dovrebbe essere paro paro quello a 256 bit.
intendi i 7.7?
Che io sappia sta programmando il primo driver per il controller ram a 512 bit, per sostituire l'attuale che dovrebbe essere paro paro quello a 256 bit.
mi pare che sempre su questo tread non so se a te oppure a qualcun altro io e leone azzurro gia avevamo rettificato questa affarmazione.
ovviamente non puo essere che il ringbus sia gestitto in maniera dvr come un 256bit x ovvia priblemi se cosi fosse nei test la scheda risulterebbe con una banda dimezzata inferiore a quella della x1950xtx.
in + ci sono 2 differenze sostanziali tra il ringbus di r5x0 e il ringbus di r6x0.
il primo è unring bus a 512bit interni e 256bit esterni a struttura semiaperta ergo cmq provisto di qualche stop in concomintanza del banco di ram da cui prendeva o dava informazioni.
il secondo invece è da 1024bit interno e 512bit esterno ma anche a struttura completamente aperta lasciando al dvr il pieno controllo di dove allorare le chiamate alla ram senza i punti di stop.
l'ottimizazione di questo controler ovviamente è + difficile di quello gia perfettamente ottimizato di quello di r5x0 anche xè sono il doppio dei dati e ovviamente lo si puo completamente programmare per ogni eventualità e per ogni gioco.
è anche vero che i programmatori ati non potevano da 0 riprogrammare e quindi hanno preso dibase il lavoro svolto sul controler di r5x0 ed adattato a quello di r600.
è ovvio che via via che le release di dvr escono il ringbus a 512bit verrà sicuramente sfruttato meglio ed ottimizzato per la sua struttura + flessibile ma è sbagliato dire che adesso sfrutta o è visto dai dvr solo come un controler da 256bit xè vorrebbe dire per ati aver fatto una truffa bella e buona cioè presentare una vga con un bus da 512bit con banda dichiarata di 105gb e poi di fatto venderla ad i propi utenti castrata via software con una banda da 48gb.
mi pare che sempre su questo tread non so se a te oppure a qualcun altro io e leone azzurro gia avevamo rettificato questa affarmazione.
ovviamente non puo essere che il ringbus sia gestitto in maniera dvr come un 256bit x ovvia priblemi se cosi fosse nei test la scheda risulterebbe con una banda dimezzata inferiore a quella della x1950xtx.
in + ci sono 2 differenze sostanziali tra il ringbus di r5x0 e il ringbus di r6x0.
il primo è unring bus a 512bit interni e 256bit esterni a struttura semiaperta ergo cmq provisto di qualche stop in concomintanza del banco di ram da cui prendeva o dava informazioni.
il secondo invece è da 1024bit interno e 512bit esterno ma anche a struttura completamente aperta lasciando al dvr il pieno controllo di dove allorare le chiamate alla ram senza i punti di stop.
l'ottimizazione di questo controler ovviamente è + difficile di quello gia perfettamente ottimizato di quello di r5x0 anche xè sono il doppio dei dati e ovviamente lo si puo completamente programmare per ogni eventualità e per ogni gioco.
è anche vero che i programmatori ati non potevano da 0 riprogrammare e quindi hanno preso dibase il lavoro svolto sul controler di r5x0 ed adattato a quello di r600.
è ovvio che via via che le release di dvr escono il ringbus a 512bit verrà sicuramente sfruttato meglio ed ottimizzato per la sua struttura + flessibile ma è sbagliato dire che adesso sfrutta o è visto dai dvr solo come un controler da 256bit xè vorrebbe dire per ati aver fatto una truffa bella e buona cioè presentare una vga con un bus da 512bit con banda dichiarata di 105gb e poi di fatto venderla ad i propi utenti castrata via software con una banda da 48gb.
Io non ho detto che è a 256 bit, ma che è preso paro paro dal driver per r500, ovviamente riadattato, ora ne stanno programmando uno specifico, penso sia promettente in prospettiva e la dice lunga sui margini di miglioramento, poi il ringbus e la sua programmabilità sono il segreto per cui con varie release Ati è riuscita a superare la 7800-7900 nei motori ID.
Anche ora su 1900 Gt noto miglioramenti di release in release.
Riguardo alla truffa, che truffa non è, può essere benissimo che abbiano limitato la banda proprio per la mancanza di un driver stabile e scelto una soluzione di compromesso, tra l'altro il controller ram è stato l'artefice del ritardo a quanto si dice, quindi probabilmente il settore dove hanno potuto lavorare di meno.
Iantikas
17-07-2007, 17:52
Io non ho detto che è a 256 bit, ma che è preso paro paro dal driver per r500, ovviamente riadattato, ora ne stanno programmando uno specifico, penso sia promettente in prospettiva e la dice lunga sui margini di miglioramento, poi il ringbus e la sua programmabilità sono il segreto per cui con varie release Ati è riuscita a superare la 7800-7900 nei motori ID.
Anche ora su 1900 Gt noto miglioramenti di release in release.
Riguardo alla truffa, che truffa non è, può essere benissimo che abbiano limitato la banda proprio per la mancanza di un driver stabile e scelto una soluzione di compromesso, tra l'altro il controller ram è stato l'artefice del ritardo a quanto si dice, quindi probabilmente il settore dove hanno potuto lavorare di meno.
la banda nn'è mai stata limitata neanke con le prime release beta dei driver...ciò si evinceva anke dal fatto ke nei test sintetici d fill rate R600 è uno dei chip ke + d tutti s avvicina ai propri max valori teorici e questo proprio grazie alla banda torrenziale ke possiede...
...inoltre sicuramente nn'è presso "paro paro" (ke significerebbe usare gli stessi driver x entrambe le arkitetture) ma son solo partiti da li e l'hanno riadattato x il nuovo bus d R600...naturalmente ora col tempo lo ottimizzeranno a poco a poco...ciao
la banda nn'è mai stata limitata neanke con le prime release beta dei driver...ciò si evinceva anke dal fatto ke nei test sintetici d fill rate R600 è uno dei chip ke + d tutti s avvicina ai propri max valori teorici e questo proprio grazie alla banda torrenziale ke possiede...
...inoltre sicuramente nn'è presso "paro paro" (ke significerebbe usare gli stessi driver x entrambe le arkitetture) ma son solo partiti da li e l'hanno riadattato x il nuovo bus d R600...naturalmente ora col tempo lo ottimizzeranno a poco a poco...ciao
si infatti i dvr del ringbus sono gia perfettamente funzionanti ed adattati ai 512bit ovviamente non sono ottimizzati eh per la programmabilità specifica per un ringbus aperto da uno semiaperto e per via del raddopio del bittaggio dei dati passati che oggettivamente non è tanto quello esterno quello è meccanico una volta ch eè a 256bit o 512 la banda fisicamente è disponibile a quel bit.
quello che è difficile da programmare è il bus interno che gestisce lo scambio dei dati tra il chip e le ram.
con probabilità hanno un dvr che gestisce il ringbus a 1024bit abbastanza solido a cui però nn hanno avuto tempo di ottimizzare e quindi hanno optato per portare qualche ottimizzazione da quelle sviluppate per r5x0.
ergo è ovvio che in proporzione a migliorare sarà il controler di r600 e non quello di r5x0 come xò visto cmq la similarità dei 2 controler è anche ovvio che un implementazione efficacie su r600 possa risultare lo stesso efficente su r5x0.
appleroof
17-07-2007, 18:25
la ventola al 100% nn la vedrai mai...ma neanke al 50%...
...in idle la ventola gira a 1440rpm ke equivalgono al 25%...con load leggeri gira a 2070rpm ke equivalgono al 31%...con load prolungati e pesanti quando la skeda tocca i 70° la ventola va a 2560rpm ossia al 37% e la temp rimane fissa a 70° pure dopo 10 3dmark06 d fila...
...l'unico regime veramente silenzioso cmq è quello in idle con la ventola al 25% (gli altri due son abb rumorosi)...
...c'è d buono cmq ke anke in oc la temp rimane quella d 70° in full load (ogni tanto va a 71°) e la ventola nn va oltre il 37% e questo a 850/900 ke son le freq ke tengo x adesso in attesa d trovare il limite delle ram (mentre 850mhz è il limite della GPU col dissi originale con impostazioni default)...
...ciao
cioè tu oc con la ventola al 37% in piena estate?? facendo le corna, ma hai deciso di farla durare poco stà vga??? :stordita: hai fatto sessioni di gioco di almeno un'ora di seguito con quelle impostazioni e le temp sono davvero 71 °?
Iantikas
17-07-2007, 18:44
cioè tu oc con la ventola al 37% in piena estate?? facendo le corna, ma hai deciso di farla durare poco stà vga??? :stordita: hai fatto sessioni di gioco di almeno un'ora di seguito con quelle impostazioni e le temp sono davvero 71 °?
c'ho giocato anke x un paio d'ore d fila e fatto stress test (tipo 3dmark06 con i 2 test sm2.0/3.0 in loop x 8 volte ognuno) x testare la stabilità dell'oc...
...con la ventole impostata d def. (ke si comporta come descritto nel post precedente) l'unica differenza tra "freq def." e "850/950" è ke a freq def. oscilla tra 69/70, a 850/950 tra 70/71...
...ciao
p.s.: cmq in questa skeda fondamentale importanza ha l'oc della GPU...ogni mhz ke si aumenta la GPU c'è un aumento d prestazioni nei bench...occando invece le memorie (anke con la GPU@850mhz) l'aumento in prestazioni è marginale e anke ora ke le tengo @950mhz il miglioramento rispetto agli 828mhz d def. è irrisorio e simile a quello ke si ottiene con 10/15mhz in + d GPU...
...questo anke spiega xkè nn abbiano fatto uscire il modello XTX con freq 745/1100...dato ke già a 828mhz grazie al bus a 512bit di banda cè ne già + d quanta ne possa servire alla skeda...
appleroof
17-07-2007, 18:54
c'ho giocato anke x un paio d'ore d fila e fatto stress test (tipo 3dmark06 con i 2 test sm2.0/3.0 in loop x 8 volte ognuno) x testare la stabilità dell'oc...
...con la ventole impostata d def. (ke si comporta come descritto nel post precedente) l'unica differenza tra "freq def." e "850/950" è ke a freq def. oscilla tra 69/70, a 850/950 tra 70/71...
...ciao
p.s.: cmq in questa skeda fondamentale importanza ha l'oc della GPU...ogni mhz ke si aumenta la GPU c'è un aumento d prestazioni nei bench...occando invece le memorie (anke con la GPU@850mhz) l'aumento in prestazioni è marginale e anke ora ke le tengo @950mhz il miglioramento rispetto agli 828mhz d def. è irrisorio e simile a quello ke si ottiene con 10/15mhz in + d GPU...
...questo anke spiega xkè nn abbiano fatto uscire il modello XTX con freq 745/1100...dato ke già a 828mhz grazie al bus a 512bit di banda cè ne già + d quanta ne possa servire alla skeda...
ma allora, siccome ti credo ovviamente (anche se è stranissimo che a freq. default e 850/950 la differenza di temp sia 1-2 gradi....) , com'è che tutti (anche lasciando a default) lamentano (ovviamente non qui, parlo delle review in giro) una rumorosità eccessiva della scheda? Cioè questa rumorosità eccessiva (questa, per capirci: http://dailymotion.alice.it/video/x1xzw0_hd-2900xt-in-action, scusate ma sembra un phon) è già al 37% di ventola :eek: :eek: ? Allora al 100% bisogna mettersi le cuffie che usano gli operai con i martelli pneumatici??
Inoltre scusa, ma se non metti la ventola al 100% dubito troverai il limite in oc della scheda.....:boh:
correggimi se ho sbagliato in qualcosa...
ma allora, siccome ti credo ovviamente (anche se è stranissimo che a freq. default e 850/950 la differenza di temp sia 1-2 gradi....) , com'è che tutti (anche lasciando a default) lamentano (ovviamente non qui, parlo delle review in giro) una rumorosità eccessiva della scheda? Cioè questa rumorosità eccessiva (questa, per capirci: http://dailymotion.alice.it/video/x1xzw0_hd-2900xt-in-action, scusate ma sembra un phon) è già al 37% di ventola :eek: :eek: ? Allora al 100% bisogna mettersi le cuffie che usano gli operai con i martelli pneumatici??
Inoltre scusa, ma se non metti la ventola al 100% dubito troverai il limite in oc della scheda.....:boh:
correggimi se ho sbagliato in qualcosa...
effettivamente al 100% è come avere un fono in casa.
solo che la ventola della hd2900xt al 37% almeno venendo dalla 8800gts equivale ad un 80%.
oggettivamente credo che un 100% in rotazione di una gts equivalgano non per rumore ma per rotazione ed efficenza dissipativa ad un 50% della ati.
che gia al 50% la ati fa molto + rumore della gts@100%.
poi non è sempre vero in questo range di temperature che il limite si trova con al vga al 100%.
con la 8800gts sia con la ventola a default sia con la ventola al 100% la mia vga si bloccava con coreclock superiore a 625mhz.
solo che al 100% avevo una temperatura media di 67 durante i test e con la ventola default andavo sui 71.
e capisci bene un abbassamento di solo 3 o 4 gradi non è quello che ti permette di superare il limite archidetturale del chip(se lo vuoi passare metti a liquido abbassi la temp di 20-25 gradi e sicuramente 20-25mhz li prendi.)
ma ovviamente quei 3 o 4 gradi ti danno quella sicurezza in + che in sessioni prolungate di gioco da 3 o 4 ore come puo essere una lan in condizioni di oc di avere una tranquilità in +.
Scusate se mi intrometto ora, volevo solo unirmi alla discussione visto che la bestiolina è arrivata oggi.
3DMark79
17-07-2007, 20:29
c'ho giocato anke x un paio d'ore d fila e fatto stress test (tipo 3dmark06 con i 2 test sm2.0/3.0 in loop x 8 volte ognuno) x testare la stabilità dell'oc...
...con la ventole impostata d def. (ke si comporta come descritto nel post precedente) l'unica differenza tra "freq def." e "850/950" è ke a freq def. oscilla tra 69/70, a 850/950 tra 70/71...
...ciao
p.s.: cmq in questa skeda fondamentale importanza ha l'oc della GPU...ogni mhz ke si aumenta la GPU c'è un aumento d prestazioni nei bench...occando invece le memorie (anke con la GPU@850mhz) l'aumento in prestazioni è marginale e anke ora ke le tengo @950mhz il miglioramento rispetto agli 828mhz d def. è irrisorio e simile a quello ke si ottiene con 10/15mhz in + d GPU...
...questo anke spiega xkè nn abbiano fatto uscire il modello XTX con freq 745/1100...dato ke già a 828mhz grazie al bus a 512bit di banda cè ne già + d quanta ne possa servire alla skeda...
Mmmh davvero molto interessante!
Dunque quello che influisce di più in fase di overclock e l'aumento della GPU sui frame giusto?
Dunque se la matematica non è un opinione...la stessa cosa dovrà essere con la HD2900XT 1GB DDR4 visto che hanno la stessa architettura...ha RAM in più a frequenza più alta ma GPU alla stessa maniera circa dunque le prestazioni saranno proprio basse visto che non si ha un grosso aumento sulla frequenza della memoria ma il vero collo di bottiglia sta nella GPU!:eek:
Risultato=Qualità prezzo confermo...meglio la 512MB!:D
3DMark79
17-07-2007, 20:31
Scusate se mi intrometto ora, volevo solo unirmi alla discussione visto che la bestiolina è arrivata oggi.
Benvenuto anche a te ...quando puoi noi attendiamo i tuoi post sulle prestazioni!:D
Bè prima devo reinstallare le varie amenità visto che il coso è fresco di formattazione.
3DMark79
17-07-2007, 20:37
Bè prima devo reinstallare le varie amenità visto che il coso è fresco di formattazione.
Non abbiamo fretta,ti aspettiamo!:Perfido:
Tidus.hw
17-07-2007, 20:38
arrivata la scheda, messo i 7.6... e provato il 3dmark2006.
col sistema in firma, vista ultimate incasinatissimo (infatti nel cpu test faccio quasi 200 punti in meno del normale) e vga a def ho fatto 9400...
niente male :D
ora la provo meglio, qualcuno mi puo' dare il link per gli hotfix per vista?
sul sito della amd il link per il download non va o____o
Iantikas
17-07-2007, 20:44
ma allora, siccome ti credo ovviamente (anche se è stranissimo che a freq. default e 850/950 la differenza di temp sia 1-2 gradi....) , com'è che tutti (anche lasciando a default) lamentano (ovviamente non qui, parlo delle review in giro) una rumorosità eccessiva della scheda? Cioè questa rumorosità eccessiva (questa, per capirci: http://dailymotion.alice.it/video/x1xzw0_hd-2900xt-in-action, scusate ma sembra un phon) è già al 37% di ventola :eek: :eek: ? Allora al 100% bisogna mettersi le cuffie che usano gli operai con i martelli pneumatici??
Inoltre scusa, ma se non metti la ventola al 100% dubito troverai il limite in oc della scheda.....:boh:
correggimi se ho sbagliato in qualcosa...
x quanto riguarda il rumore la ventola al 100% fa un rumore indicibile...anke al 50% è oltre il limite della sopportazione umana a mio parere...e, a me, anke al 37% da un pò fastidio...
...x quanto riguarda invece il discorso temp te la spiego diversamente xkè vedrai ke nn ce proprio nulla d strano...
...con le freq. d def. 743/828 faccio partire un test del 3dmark06 in loop...appena parte l'pplicazione subito la ventola va al 31% e la temperatura della GPU sale con una velocità x es. pari @4...la temp sale con tale velocità fino ad arrivare a 70°...arrivata a 70° la ventola va al 37%...e la temp inzia ad oscillare tra i 69° e i 70° stando x + sui 69° ke sui 70°...questo x tutta la durata del test anke se dura un ora...
...con 850/950 nelle stesse identike condizioni subito la ventola va al 31%...la temp della GPU sale con una velocità pari @8...se prima c volevano 2/3min prima ke arrivasse a 70° ora ci mette si è no 30 sec...arrivata a 70° la ventola va al 37%...e la temp inzia ad oscillare tra i 70° e i 71° (71.87° è il max registrato dal monitoring d rivatuner) stando xò + sui 71° ke sui 70°...
...cosa c vedi d strano proprio nn lo capisco...inoltre è naturale ke le freq. ke ho trovato (x la GPU, x la ram invece ancora devo trovare il limite) sono il limite imposto dal dissi stock con impo originali...poco me ne importa del limite d oc della skeda con la ventola al 100% dato ke cmq nn la userò mai con quelle impo e nn overclocco x avere 10 punti in + al 3dmark ma x sfruttare il + possibile l'HW in mio possesso...
...cmq x tornare al discorso temp proprio nn capisco cosa c vedi d strano ke le temp salgono solo d 2° scarsi...d'altronde c son solo 107mhz in + senza nessun aumento d voltaggio...ad esagerare c stanno 10W in +...
...ciao
Mmmh davvero molto interessante!
Dunque quello che influisce di più in fase di overclock e l'aumento della GPU sui frame giusto?
Dunque se la matematica non è un opinione...la stessa cosa dovrà essere con la HD2900XT 1GB DDR4 visto che hanno la stessa architettura...ha RAM in più a frequenza più alta ma GPU alla stessa maniera circa dunque le prestazioni saranno proprio basse visto che non si ha un grosso aumento sulla frequenza della memoria ma il vero collo di bottiglia sta nella GPU!:eek:
Risultato=Qualità prezzo confermo...meglio la 512MB!:D
si infatti il discorso di avere tanta banda serve nei giochi xè li si abilitano aa af e chi + ne ha + nemetta.
a 1024 io credo che il 3dmark06 non riesca a saturare tutti i 105gb di banda della 2900.
diffatti anche a me passando dagli 825mhz ai 1000 l'incremento di punteggio è stato ridicolo forse di 500punit.
passando invece con il core clock anche a frequenze basse da 740 a 800mhz il punteggio è salito di 800pnt.
poi è indubbuo che tra tutte le vga di fascia alta partendo dalle 8800gts le migliori per prezzo prestazioni sono appunto le 8800gts per la fascia 250e e le hd2900xt per la fascia 350.
Iantikas
17-07-2007, 21:14
si infatti il discorso di avere tanta banda serve nei giochi xè li si abilitano aa af e chi + ne ha + nemetta.
a 1024 io credo che il 3dmark06 non riesca a saturare tutti i 105gb di banda della 2900.
diffatti anche a me passando dagli 825mhz ai 1000 l'incremento di punteggio è stato ridicolo forse di 500punit.
passando invece con il core clock anche a frequenze basse da 740 a 800mhz il punteggio è salito di 800pnt.
poi è indubbuo che tra tutte le vga di fascia alta partendo dalle 8800gts le migliori per prezzo prestazioni sono appunto le 8800gts per la fascia 250e e le hd2900xt per la fascia 350.
no, il mio discorso prima sull'utilitaà oc GPU/ram era in generale...se fai qualke test te ne rendi conto anke te...
...anke a @1680x1050 4xAA 16xAF l'incremento passando da 828mhz @950mhz è irrisorio (se con il core @850mhz ke quindi potrebbe sfruttarla maggiormente)...nn ricordo d preciso ma son solo tipo 20/30 punti in + in test sm2.0/3.0 (in pratica niente se confrontati ai 250mhz in + sulla ram)...
...aumentando invece il core ogni soli 10/15mhz (sempre sm2.0/3.0 nn il totale) sale d circa 100 punti...
...x caso (mentre notavo questa particolarità ke oc anke elvati della ram influenzno niente e piccoli oc della gpu influenzano un casino le prestazioni) alcuni punteggi me li son segnati su un foglio (e da questi si vede quanto piccoli incrementi della gpu aumentino il risultato)...
- @810mhz sm2.0/3.0 son 3471/4153
- @828mhz sm2.0/3.0 son 3540/4324
- @844mhz sm2.0/3.0 son 3624/4419
(questi 3 test li avevo fatti @1680x1050 16xAF con memoria @def.)
...ciao
appleroof
17-07-2007, 21:14
effettivamente al 100% è come avere un fono in casa.
solo che la ventola della hd2900xt al 37% almeno venendo dalla 8800gts equivale ad un 80%.
oggettivamente credo che un 100% in rotazione di una gts equivalgano non per rumore ma per rotazione ed efficenza dissipativa ad un 50% della ati.
che gia al 50% la ati fa molto + rumore della gts@100%.
poi non è sempre vero in questo range di temperature che il limite si trova con al vga al 100%.
con la 8800gts sia con la ventola a default sia con la ventola al 100% la mia vga si bloccava con coreclock superiore a 625mhz.
solo che al 100% avevo una temperatura media di 67 durante i test e con la ventola default andavo sui 71.
e capisci bene un abbassamento di solo 3 o 4 gradi non è quello che ti permette di superare il limite archidetturale del chip(se lo vuoi passare metti a liquido abbassi la temp di 20-25 gradi e sicuramente 20-25mhz li prendi.)
ma ovviamente quei 3 o 4 gradi ti danno quella sicurezza in + che in sessioni prolungate di gioco da 3 o 4 ore come puo essere una lan in condizioni di oc di avere una tranquilità in +.
hai avuto una vga sfigatella allora, visto che a me e al 99% dei possessori di g80 regge i 650 come se nulla fosse nat. con bios/dissi default (nel mio caso test fatti con ventola al 90%)
l'ultima parte del post era quello che intendevo, e cmq a me le temp dal 50% di rotazione default all'80% scendono anche di 8/10 gradi rispettivamente full/idle, come credo al 90% dei possessori g80, a giudicare dalle prove che abbiamo fatto in questi mesi, e non è poco se vuoi oc, anzi. Cali di temp come quelli indicati da te (addirittura di 25°!)servono per i megaoc, non per aumenti di 20-25mhz, assolutamente
@Iantikas: la temp di 71° è strano che sia identica a quella default in full, a parità di rotazione della ventola, c'è poco da fare, quindi o sei molto fortunato o qualcosa cmq non mi torna
;)
effettivamente è molto strano, sembra una cosa al di fuori di ogni legge fisica\termica\quel che volete :asd:
Iantikas
17-07-2007, 21:35
hai avuto una vga sfigatella allora, visto che a me e al 99% dei possessori di g80 regge i 650 come se nulla fosse nat. con bios/dissi default (nel mio caso test fatti con ventola al 90%)
l'ultima parte del post era quello che intendevo, e cmq a me le temp dal 50% di rotazione default all'80% scendono anche di 8/10 gradi rispettivamente full/idle, come credo al 90% dei possessori g80, a giudicare dalle prove che abbiamo fatto in questi mesi, e non è poco se vuoi oc, anzi. Cali di temp come quelli indicati da te (addirittura di 25°!)servono per i megaoc, non per aumenti di 20-25mhz, assolutamente
@Iantikas: la temp di 71° è strano che sia identica a quella default in full, a parità di rotazione della ventola, c'è poco da fare, quindi o sei molto fortunato o qualcosa cmq non mi torna
;)
io direi piuttosto ke o nn leggi attentamente o proprio nn vuoi/puoi capire...
...la temp nn'è identica...c son 2 gradi scarsi di differenza...inoltre @850mhz la temp arriva + in fretta a 70/71° rispetto a quanto c mette ad arrivare a def. a 69/70°...
...qualcosa d strano ce la vedi solo tu...ripeto son solo 100mhz in + a voltaggio def ke equivalgono si e no a 10W d consumo in + da smaltire x il dissi (forse a te e ora anke all'altro utente sfugge ke le temp ke si ottengono nn dipendono dalla freq. a cui gira la GPU ma dai W ke dissipa)...
...situazione simile avviene anke nell'oc delle cpu dove overclokkando rimanendo a voltaggio def. anke alzando d centinaia d mhz la temp si alza d solo 2/3 gradi...
...inoltre x i "megaoc" su GPU d cui parli c vogliono temp inferiori d + 100° rispetto ad aria usando phase-change o azoto...
...passando da un buon dissi ad aria ad un buon impianto a liquido (in ambito GPU) e guadagnando in media quei 20/25°, sempre in media guadagni 20/30mhz (e questo te lo posso dire con assoluta certezza e x esperienza su svariate skede)...il vantaggio usando il liquido rispetto ad un buon disi ad aria (sempre rimanendo in ambito GPU) e ke hai la possibilità d overvoltare sensibilmente cosa ke t fa salire ancora...ma rimanendo a voltaggio def. il guadagno in freq è quello d 20/30mhz sul core della skeda video (inoltre le skede video nn digeriscono molto bene l'overvolt ed è altamente sconsigliato farlo x l'uso giornaliero dato ke difficilmente durerà + d un anno...e anke questo, purtroppo in questo caso, te lo dico x espereinze vissute)...
...ciao
appleroof
17-07-2007, 21:41
io direi piuttosto ke o nn leggi attentamente o proprio nn vuoi/puoi capire...
...la temp nn'è identica...c son 2 gradi scarsi di differenza...inoltre @850mhz la temp arriva + in fretta a 70/71° rispetto a quanto c mette ad arrivare a def. a 69/70°...
a certo, 2° di differenza, certo......
...qualcosa d strano ce la vedi solo tu...ripeto son solo 100mhz in + a voltaggio def ke equivalgono si e no a 10W d consumo in + da smaltire x il dissi...
...situazione simile avviene anke nell'oc delle cpu dove overclokkando rimanendo a voltaggio def. anke alzando d centinaia d mhz la temp si alza d solo 2/3 gradi...
...inoltre x i "megaoc" su GPU d cui parli c vogliono temp inferiori d + 100° rispetto ad aria usando phase-change o azoto...
...passando da un buon dissi ad aria ad un buon impianto a liquido (in ambito GPU) e guadagnando in media quei 20/25°, sempre in media guadagni 20/30mhz (e questo te lo posso dire con assoluta certezza e x esperienza su svariate skede)...il vantaggio usando il liquido rispetto ad un buon disi ad aria (sempre rimanendo in ambito GPU) e ke hai la possibilità d overvoltare sensibilmente cosa ke t fa salire ancora...ma rimanendo a voltaggio def. il guadagno in freq è quello d 20/30mhz sul core della skeda video (inoltre le skede video nn digeriscono molto bene l'overvolt ed è altamente sconsigliato farlo x l'uso giornaliero dato ke difficilmente durerà + d un anno...e anke questo, purtroppo in questo caso, te lo dico x espereinze vissute)...
...ciao
cioè tu sostieni che per guadagnare 20/30 mhz occorre abbassare la temp media di 25°???? cacchio allora sono stato iperfortunato in tutti questi anni di oc di vga...addirittura per alzare la mia attuale gpu di 75mhz d'inverno lasciavo la ventola default :eek: :eek: ......meglio così speriamo continui ;)
quanto al resto quindi secondo te la differenza non è nei gradi max tra gpu default e oc di 100mhz ma nella velocità alla quale si raggiunge quella temp max, che poi però rimane costante?????
mah, davvero forse sono io che non capisco (in realtà leggendo il post subito prima del tuo non solo io) ......
io overcloccando solo la gpu a 825 mhz e con ventola gestita in auto, faceva circa 10° in piu rispetto alla freq default...
la banda nn'è mai stata limitata neanke con le prime release beta dei driver...ciò si evinceva anke dal fatto ke nei test sintetici d fill rate R600 è uno dei chip ke + d tutti s avvicina ai propri max valori teorici e questo proprio grazie alla banda torrenziale ke possiede...
...inoltre sicuramente nn'è presso "paro paro" (ke significerebbe usare gli stessi driver x entrambe le arkitetture) ma son solo partiti da li e l'hanno riadattato x il nuovo bus d R600...naturalmente ora col tempo lo ottimizzeranno a poco a poco...ciao
Il fill rate teorico se è vicino a quello reale non è indice che l'ampiezza di banda è più o meno elevata, ma solo che un chip è ben strutturato ed efficente.
Io non sto dicendo che hanno fatto come dico io, ma solo che non è improbabile che sia così, non vi ricordate forse le prime matrox g400 agp 4x che i primi tempi, per colpa dei driver, andavano a 1-2 x?
Iantikas
17-07-2007, 22:46
a certo, 2° di differenza, certo......
cioè tu sostieni che per guadagnare 20/30 mhz occorre abbassare la temp media di 25°???? cacchio allora sono stato iperfortunato in tutti questi anni di oc di vga...addirittura per alzare la mia attuale gpu di 75mhz d'inverno lasciavo la ventola default :eek: :eek: ......meglio così speriamo continui ;)
quanto al resto quindi secondo te la differenza non è nei gradi max tra gpu default e oc di 100mhz ma nella velocità alla quale si raggiunge quella temp max, che poi però rimane costante?????
mah, davvero forse sono io che non capisco (in realtà leggendo il post subito prima del tuo non solo io) ......
innanzitutto i FATTI...
... http://img125.imageshack.us/img125/7898/immagine002yu5.th.jpg (http://img125.imageshack.us/my.php?image=immagine002yu5.jpg) ...
... http://img509.imageshack.us/img509/6670/immagine001lx3.th.jpg (http://img509.imageshack.us/my.php?image=immagine001lx3.jpg) ...
...skeda a freq. def. (743/828) contro skeda @843/950...100mhz esatt in + al core (e 250mhz in + sulle ram)...dagli screen si nota kiaramente come a parità d regime di rotazione della ventole la differenza sia uguale a circa 1.5° (inoltre si vede kiaramente come le temp si stabilizzino su quei valori)...
...kiuso questo discorso (oltre ke scusarti x avermi velatamente dato del pallonaro nn so proprio cos'altro tu possa dire a meno ke nn vuoi cadere proprio in basso...caso in cui un bell'ignore nn te lo toglie nessuno)...passiamo al discorso oc dove ho capito ke nn'è colpa tua è proprio ke nn c'arrivi...
cioè tu sostieni che per guadagnare 20/30 mhz occorre abbassare la temp media di 25°????
è assurdo ke te ne possa uscire con frasi del genere xkè ciò significa ke tu quello ke ho scritto o nn l'hai letto proprio oppure quando leggi conti i ciucci ke volano...
...ho detto ke, in ambito GPU, passando da un buon dissi (come sono, dal punto d vista delle prestazioni, i dissi stock d R600 e G80) ad un buon liquido (rimanendo a voltaggio def.) i mediemente 20/25° in meno ke ti da il liquido ti fan guadagnare mediamente circa 30mhz....
...quello ke poi ti permette d fare, grazie alle temp + basse, è d overvoltare potendo quindi salire ancora in freq....MA rimanendo voltaggio def. mediamente si guadagnano 30mhz sul core della GPU passando da un buon dissi ad aria ad un buon liquido...
...come fai in base a queste affermazioni a dire ke io sostengo questo-> cioè tu sostieni che per guadagnare 20/30 mhz occorre abbassare la temp media di 25°??? ????? !!!!!
...e basta xkè nn ne perdo + tempo con te...io nn entro in un forum x sparare caxxate, mi ritengo una persona seria e tutto ciò ke sto affermando nn si basa sull'esperienze del cugino dell'amico o su quello ke stava scritto su quel sito o su quello ke ha detto il pincopallino d turno...son tutto cose ke ho sperimentato e vissuto in prima persona e siccome molto probabilmente tu nn hai manco mai montato un wb in vita tua dovresti come minimo informarti un minmo prima d darmi velatamente del pallonaro/deficente così eviteresti anke d fare figure pessime come quella ke hai fatto ora...
3DMark79
17-07-2007, 23:03
si infatti il discorso di avere tanta banda serve nei giochi xè li si abilitano aa af e chi + ne ha + nemetta.
a 1024 io credo che il 3dmark06 non riesca a saturare tutti i 105gb di banda della 2900.
diffatti anche a me passando dagli 825mhz ai 1000 l'incremento di punteggio è stato ridicolo forse di 500punit.
passando invece con il core clock anche a frequenze basse da 740 a 800mhz il punteggio è salito di 800pnt.
poi è indubbuo che tra tutte le vga di fascia alta partendo dalle 8800gts le migliori per prezzo prestazioni sono appunto le 8800gts per la fascia 250e e le hd2900xt per la fascia 350.
Dunque tu parli da possessore di una 8800GTS e influisce anche in questa di più l'aumento della GPU?E non di poco direi tirando le somme.
Cmq anche per la mia amata X800GTO2 il collo di bottiglia era la GPU bene o male alla stessa maniera.
Ps:a 1024X768 o 1280x1024 non penso proprio che si saturi la banda della hd2900xt al 3Dmark06 e probabilmente anche a risoluzioni ancora più alte non ci riesca.
dopo tutto quello che hanno sudato per realizzare R600 ci mancherebbe che sia anche limitato dalla banda... queste gpu per lavorare al meglio, non devono avere colli di bottiglia nel bus...
mi ricordo con la arcaica radeon 9550 (R.I.P.)... avevo il core a 450 MHz, e le ram facevano un super collo di bottiglia.. che bastava alzare di 1 mhz le ram per avere incrementi di 3/4 fps nei giochi :asd: con le vga moderne tendono a evitare queste situazioni ;)
3DMark79
18-07-2007, 00:08
dopo tutto quello che hanno sudato per realizzare R600 ci mancherebbe che sia anche limitato dalla banda... queste gpu per lavorare al meglio, non devono avere colli di bottiglia nel bus...
mi ricordo con la arcaica radeon 9550 (R.I.P.)... avevo il core a 450 MHz, e le ram facevano un super collo di bottiglia.. che bastava alzare di 1 mhz le ram per avere incrementi di 3/4 fps nei giochi :asd: con le vga moderne tendono a evitare queste situazioni ;)
Speriamo...sono troppo curioso di vedere questi driver 7.7 che cambiamenti porteranno!:rolleyes:
Dunque tu parli da possessore di una 8800GTS e influisce anche in questa di più l'aumento della GPU?E non di poco direi tirando le somme.
Cmq anche per la mia amata X800GTO2 il collo di bottiglia era la GPU bene o male alla stessa maniera.
Ps:a 1024X768 o 1280x1024 non penso proprio che si saturi la banda della hd2900xt al 3Dmark06 e probabilmente anche a risoluzioni ancora più alte non ci riesca.
no invece sulla 8800gts per via del bus a 320bit cmq un inezia rispetto ai 512bit della 2900 invece l'aumento congiunto delle ram comportava grandi vantaggi e xè cmq anche overclokkando a 950mhz si passava da una banda di default di 64gb ad una di 76gb valori cmq decisamente bassi rispetto ai 105gb di default della 2900hd.
a questo va aggiunto che la vecchia archidettura crossbar trae molti + vantaggi da un aumento di clock delle ram che non l'archidettura a rignbus.
a questo c'e anche da aggiungere che cmq ogni innalzamento di clock del core di g80 corrisponde un cospicuo innalzamento oltre che del clock matematico anche di quello degli shader.
una 8800gts con core clock a 600mhz ha uno shader clock di 1400mhz.
ottenendo di fatto un fillrate superiore ad una 2900 clokkata a 800mhz si parla di valori di un valore teorico di 14000 contro uno di 12800.
ovviamente il rovescio della medaglia è si che la 8800gts ha uno shaderclock superiore ad una 2900 ma in questo caso la 2900 ha un grande vantaggio di clock nelle normali operazioni matematiche per via di un core settato a 600mhz contro uno settato a 800.
in situazioni di non overclock con core della 8800gts a 500mhz ed uno della hd2900 a 740 il fillrate è circa uguale di 12000vs11840 ma ovviamente il vantaggio della radeon in operazioni matematiche si sente da una maggiore differenza di clock.
in definitiva in puri numeritti del 3dmark06 con una 8800gts clokkata a 600-950 faccio quanto una hd2900xt a default è anche vero che xò clokkando una 2900 a 800-950 non ho lo stesso incremento di punteggio che ho avuto portando la 8800gts da 500-800@600-950.
3DMark79
18-07-2007, 09:44
no invece sulla 8800gts per via del bus a 320bit cmq un inezia rispetto ai 512bit della 2900 invece l'aumento congiunto delle ram comportava grandi vantaggi e xè cmq anche overclokkando a 950mhz si passava da una banda di default di 64gb ad una di 76gb valori cmq decisamente bassi rispetto ai 105gb di default della 2900hd.
a questo va aggiunto che la vecchia archidettura crossbar trae molti + vantaggi da un aumento di clock delle ram che non l'archidettura a rignbus.
a questo c'e anche da aggiungere che cmq ogni innalzamento di clock del core di g80 corrisponde un cospicuo innalzamento oltre che del clock matematico anche di quello degli shader.
una 8800gts con core clock a 600mhz ha uno shader clock di 1400mhz.
ottenendo di fatto un fillrate superiore ad una 2900 clokkata a 800mhz si parla di valori di un valore teorico di 14000 contro uno di 12800.
ovviamente il rovescio della medaglia è si che la 8800gts ha uno shaderclock superiore ad una 2900 ma in questo caso la 2900 ha un grande vantaggio di clock nelle normali operazioni matematiche per via di un core settato a 600mhz contro uno settato a 800.
in situazioni di non overclock con core della 8800gts a 500mhz ed uno della hd2900 a 740 il fillrate è circa uguale di 12000vs11840 ma ovviamente il vantaggio della radeon in operazioni matematiche si sente da una maggiore differenza di clock.
in definitiva in puri numeritti del 3dmark06 con una 8800gts clokkata a 600-950 faccio quanto una hd2900xt a default è anche vero che xò clokkando una 2900 a 800-950 non ho lo stesso incremento di punteggio che ho avuto portando la 8800gts da 500-800@600-950.
Chiarissimo...un pò di tempo e si saprà se i programmatori ATI riusciranno a dare questa spinta che tutti ci aspettiamo da questa scheda!:)
innanzitutto i FATTI....MA rimanendo voltaggio def. mediamente si guadagnano 30mhz sul core della GPU passando da un buon dissi ad aria ad un buon liquido...
.
bè la mia gpu é a liquido, e con i circa 25° in meno sono passato da un clock GPU di 575 a 648 senza toccare i voltaggi e sale ancora:) restando sui 50° in uso non gamer con temperatura in casa di 32°
quindi si guadagna + che 30MHz
Chiarissimo...un pò di tempo e si saprà se i programmatori ATI riusciranno a dare questa spinta che tutti ci aspettiamo da questa scheda!:)
difatti io credo che il successo o il fallimento di questa vga sarà quanto bene i programmatori ati riusciranno a sfruttare questo ringbus nuovo senza stop.
mentre nvidia ha 2 clock per la gpu diversi e puo giostrare sull'ottimizazioni per bilanciare o sbilanciare il lavoro verso la parte degli shader ad una frequenza maggiore o verso la parte delle rops e conti matematici restando fissi che l'archidettura crossbar quella è con la banda fissata e i dati distribuiti su ogni bus da 32bit che poi corrisponde al banco fisico della ram assegnato da 32 o 64mb(difatti nvidia ha ottenuto l'aumento del bus sulle gts e gtx propio cosi ha aggiungo al crossbar standard da 8blocchi di memoria da 30 o 64mb quindi 32x8=256bit ne ha aggiunti altri 2 per un totale di 10blocchi da 32mb per 32bit sulla 8800gts da 320mb, invece ne ha aggiunti 2blocchi da 64mb per la 8800gts da 640mb sempre a 32bit.
mentre per la 8800gtx ne ha aggiunti ben 4blocchi da 64mb per 32bit di bus ogni uno è per questo che questa vga è leggermente + lunga anche della 2900xt xè ovviamente lo spazio sul pcb per altri 4 blocchi di ram ovviamente ti allunga la scheda di quei 2cm)
ati invece ha un coreclock fisso per ogni operazione di 740mhz ergo qui non ci si puo giocare troppo(ovviamente a livello matematico nell'uso delle sp sicuramente si)quindi il ringbus è quello che ne fa da padrone mettengo nel suo ring i dati e decidendo quali di questi la gpu è pronta ad elaborare e quali di questi invece devono essere allocati nella ram,e quelli allocati nella ram deve decidere quali vanno mantenuti quindi lasciati stare per un attimo e disinteressarse e quali invece sono i dati necessari da mandare alla gpu subito dopo la prima ondata.
Quoziente
18-07-2007, 12:13
difatti io credo che il successo o il fallimento di questa vga sarà quanto bene i programmatori ati riusciranno a sfruttare questo ringbus nuovo senza stop.
mentre nvidia ha 2 clock per la gpu diversi e puo giostrare sull'ottimizazioni per bilanciare o sbilanciare il lavoro verso la parte degli shader ad una frequenza maggiore o verso la parte delle rops e conti matematici restando fissi che l'archidettura crossbar quella è con la banda fissata e i dati distribuiti su ogni bus da 32bit che poi corrisponde al banco fisico della ram assegnato da 32 o 64mb(difatti nvidia ha ottenuto l'aumento del bus sulle gts e gtx propio cosi ha aggiungo al crossbar standard da 8blocchi di memoria da 30 o 64mb quindi 32x8=256bit ne ha aggiunti altri 2 per un totale di 10blocchi da 32mb per 32bit sulla 8800gts da 320mb, invece ne ha aggiunti 2blocchi da 64mb per la 8800gts da 640mb sempre a 32bit.
mentre per la 8800gtx ne ha aggiunti ben 4blocchi da 64mb per 32bit di bus ogni uno è per questo che questa vga è leggermente + lunga anche della 2900xt xè ovviamente lo spazio sul pcb per altri 4 blocchi di ram ovviamente ti allunga la scheda di quei 2cm)
ati invece ha un coreclock fisso per ogni operazione di 740mhz ergo qui non ci si puo giocare troppo(ovviamente a livello matematico nell'uso delle sp sicuramente si)quindi il ringbus è quello che ne fa da padrone mettengo nel suo ring i dati e decidendo quali di questi la gpu è pronta ad elaborare e quali di questi invece devono essere allocati nella ram,e quelli allocati nella ram deve decidere quali vanno mantenuti quindi lasciati stare per un attimo e disinteressarse e quali invece sono i dati necessari da mandare alla gpu subito dopo la prima ondata.
Premetto che non essendo pratico di architettura di schede video di tutti questi discorsi non ci ho capito una mazza...:doh:
In POCHE PAROLE POVERE vorrei capire:
1- Se programmano bene i drivers che potenzialità ha la mia(nostra) scheda? Può insidiare la GTX/ULTRA?
2- Rispetto ad ora che margini di miglioramento ha teoricamente?
Grazie a chi vorrà rispondere a uno niubbo...:muro:
leoneazzurro
18-07-2007, 12:22
Il ring bus di R600 è con stop, anzi ce ne sono più di 80 se non erro.
La diversità è che mentre il precedente ring bus di R580 era "parzialmente distribuito", mentre quello di R600 è "totalmente distribuito" ossia in R580 il bus aveva un numero minore di stop e non metteva in comunicazione tutte le parti del chip, mentre in R600 avviene proprio questo.
Iantikas
18-07-2007, 13:06
bè la mia gpu é a liquido, e con i circa 25° in meno sono passato da un clock GPU di 575 a 648 senza toccare i voltaggi e sale ancora:) restando sui 50° in uso non gamer con temperatura in casa di 32°
quindi si guadagna + che 30MHz
ma mi prendi in giro???...575mhz è la freq d default della 8800GTX ke tu possiedi....è kiaro ke partendo da def. il guadagno è + d 30mhz passando a luiquido..ma nn penso proprio ke ad aria nn riuscivi ad alzare neanke d un mhz...
...o qua si discute seriamente, se dobbiamo prenderci in giro me ne tiro proprio fuori...ciao
Premetto che non essendo pratico di architettura di schede video di tutti questi discorsi non ci ho capito una mazza...:doh:
In POCHE PAROLE POVERE vorrei capire:
1- Se programmano bene i drivers che potenzialità ha la mia(nostra) scheda? Può insidiare la GTX/ULTRA?
2- Rispetto ad ora che margini di miglioramento ha teoricamente?
Grazie a chi vorrà rispondere a uno niubbo...:muro:
Rispetto ad ora correggerà gli ambiti dove va come una x1950 xtx, con dei buoni driver penso che possano aumentare le prestazioni con i filtri soprattutto, diciamo di un 20-30%, ma dipende dal motore e dal titolo in esame.
Comunque a settembre-ottobre dovrebbero uscire release con un driver riscritto da 0 per sfruttare il ringbus di r600, ora di fatto hanno incominciato a riscrivere il supporto opengl e i risultati si vedono ;)
3DMark79
18-07-2007, 13:30
Rispetto ad ora correggerà gli ambiti dove va come una x1950 xtx, con dei buoni driver penso che possano aumentare le prestazioni con i filtri soprattutto, diciamo di un 20-30%, ma dipende dal motore e dal titolo in esame.
Comunque a settembre-ottobre dovrebbero uscire release con un driver riscritto da 0 per sfruttare il ringbus di r600, ora di fatto hanno incominciato a riscrivere il supporto opengl e i risultati si vedono ;)
Puoi postare il link dove parlano della riscittura dei driver da 0.
Quoziente
18-07-2007, 13:51
Rispetto ad ora correggerà gli ambiti dove va come una x1950 xtx, con dei buoni driver penso che possano aumentare le prestazioni con i filtri soprattutto, diciamo di un 20-30%, ma dipende dal motore e dal titolo in esame.
Comunque a settembre-ottobre dovrebbero uscire release con un driver riscritto da 0 per sfruttare il ringbus di r600, ora di fatto hanno incominciato a riscrivere il supporto opengl e i risultati si vedono ;)
Ottimo, ora è molto più chiaro, quindi teoricamente le vere potenzialità di R600 si cominceranno a vedere con i drivers di settembre/ottobre (Catalyst 8.0?), giusto giusto in tempo per l'arrivo di Crysis... :)
Sarei curioso di vedere se con dei drivers ad-hoc riuscisse a sorpassare la GTX...
Troppo ottimista? ;)
DarKilleR
18-07-2007, 13:59
Quantomeno ATI ha sempre avuto il pregio di continuare lo sviluppo dei driver anche per le generazioni passate, e fornire a volte anche nuove capacità a vecchie schede...come il Temporal AA e quella nuova modalità di AA che hanno le X1900 anche alle vechie generazioni...e ha sempre continuato bene o male lo sviluppo..
La mia X800 XT driver dopo driver rullava sempre di più...tanto che se viene fatto ora il confronto X800 XT PE con la 6800 Ultra...c'è una differenza a favore della prima, quando invece erano confrontabilissime e cmq in parità...
Quindi credo vista l'architettura rivoluzionaria di R600...e con il fatto che siamo in un periodo di passaggio..la X2900...potrà avere ampi margini di miglioramento..
DarKilleR
18-07-2007, 14:01
P.S. i Catalyst come numerazione, seguono anno ed il mese....quindi i primi Catalyst 8.1 non è che cambiano chissà cosa rispetto ai 7.XX....ma semplicemente sono la release di gennaio 2008...da qui 8.1
I 7.7 Luglio 2007 ^^ :D
3DMark79
18-07-2007, 14:11
P.S. i Catalyst come numerazione, seguono anno ed il mese....quindi i primi Catalyst 8.1 non è che cambiano chissà cosa rispetto ai 7.XX....ma semplicemente sono la release di gennaio 2008...da qui 8.1
I 7.7 Luglio 2007 ^^ :D
:sborone: Ma ad Agosto usciranno i 7.8?Non ci vanno in vacanza? :cool:
appleroof
18-07-2007, 14:12
innanzitutto i FATTI...
... http://img125.imageshack.us/img125/7898/immagine002yu5.th.jpg (http://img125.imageshack.us/my.php?image=immagine002yu5.jpg) ...
... http://img509.imageshack.us/img509/6670/immagine001lx3.th.jpg (http://img509.imageshack.us/my.php?image=immagine001lx3.jpg) ...
...skeda a freq. def. (743/828) contro skeda @843/950...100mhz esatt in + al core (e 250mhz in + sulle ram)...dagli screen si nota kiaramente come a parità d regime di rotazione della ventole la differenza sia uguale a circa 1.5° (inoltre si vede kiaramente come le temp si stabilizzino su quei valori)...
...kiuso questo discorso (oltre ke scusarti x avermi velatamente dato del pallonaro nn so proprio cos'altro tu possa dire a meno ke nn vuoi cadere proprio in basso...caso in cui un bell'ignore nn te lo toglie nessuno)...passiamo al discorso oc dove ho capito ke nn'è colpa tua è proprio ke nn c'arrivi...
è assurdo ke te ne possa uscire con frasi del genere xkè ciò significa ke tu quello ke ho scritto o nn l'hai letto proprio oppure quando leggi conti i ciucci ke volano...
...ho detto ke, in ambito GPU, passando da un buon dissi (come sono, dal punto d vista delle prestazioni, i dissi stock d R600 e G80) ad un buon liquido (rimanendo a voltaggio def.) i mediemente 20/25° in meno ke ti da il liquido ti fan guadagnare mediamente circa 30mhz....
...quello ke poi ti permette d fare, grazie alle temp + basse, è d overvoltare potendo quindi salire ancora in freq....MA rimanendo voltaggio def. mediamente si guadagnano 30mhz sul core della GPU passando da un buon dissi ad aria ad un buon liquido...
...come fai in base a queste affermazioni a dire ke io sostengo questo-> ????? !!!!!
...e basta xkè nn ne perdo + tempo con te...io nn entro in un forum x sparare caxxate, mi ritengo una persona seria e tutto ciò ke sto affermando nn si basa sull'esperienze del cugino dell'amico o su quello ke stava scritto su quel sito o su quello ke ha detto il pincopallino d turno...son tutto cose ke ho sperimentato e vissuto in prima persona e siccome molto probabilmente tu nn hai manco mai montato un wb in vita tua dovresti come minimo informarti un minmo prima d darmi velatamente del pallonaro/deficente così eviteresti anke d fare figure pessime come quella ke hai fatto ora...
Si innanzitutto i FATTI
http://img53.imageshack.us/img53/2652/fatti2mv5.th.jpg (http://img53.imageshack.us/my.php?image=fatti2mv5.jpg)
http://img182.imageshack.us/img182/328/fattivu8.th.jpg (http://img182.imageshack.us/my.php?image=fattivu8.jpg)
specifico per estrema trasparenza, visto il tono del tuo post, che ho fatto una prova velocissima con il demo di overlord, la prima applicazione 3d che mi è venuta, altrimenti le temp a quella frequenza con il mio dissi default (altro che liquido :sbonk: :sbonk: :sbonk: ) sarebbe stata vicina agli 80°, ma in passato ho testato quelle frequenze per ore, dunque sono rs.
Per il resto :eek: :eek:
la tua arroganza è pari solo alla tua saccenza, io cercavo solo di discutere civilmente credo partendo dalla mia esperienza, ma evidentemente ho sbagliato persona e forse la tua reazione da coda di paglia (pallonaro addirittura deficiente??????? Ma chi si è mai permesso?) è solo una conferma di questo
ciao ciao ;)
p.s.: chiedo scusa a tutti gli altri per aver "rovinato" un pò il tread, ma vedete che non era mia intenzione, volevo solo chiarire le "cose" che affermava Iantikas per magari imparare qualcosa in più, ma evidentemente ho sbagliato valutazione
Il ring bus di R600 è con stop, anzi ce ne sono più di 80 se non erro.
La diversità è che mentre il precedente ring bus di R580 era "parzialmente distribuito", mentre quello di R600 è "totalmente distribuito" ossia in R580 il bus aveva un numero minore di stop e non metteva in comunicazione tutte le parti del chip, mentre in R600 avviene proprio questo.
hai ragione leo quando intendevo archidettura aperta intendevo distribuita su tutto il chip poi mi sono andato ad incartare sulle fai di stop ad ogni blocco di ram
Quoziente
18-07-2007, 14:50
Quantomeno ATI ha sempre avuto il pregio di continuare lo sviluppo dei driver anche per le generazioni passate, e fornire a volte anche nuove capacità a vecchie schede...come il Temporal AA e quella nuova modalità di AA che hanno le X1900 anche alle vechie generazioni...e ha sempre continuato bene o male lo sviluppo..
La mia X800 XT driver dopo driver rullava sempre di più...tanto che se viene fatto ora il confronto X800 XT PE con la 6800 Ultra...c'è una differenza a favore della prima, quando invece erano confrontabilissime e cmq in parità...
Quindi credo vista l'architettura rivoluzionaria di R600...e con il fatto che siamo in un periodo di passaggio..la X2900...potrà avere ampi margini di miglioramento..
Spero davvero che i margini di miglioramento siano ampi...:) è la prima volta che compro una scheda video top di gamma :sofico: (e ora come ora per quanto riguarda ATI è la top di gamma, la versione da 1Gb non la considero perché effettivamente in giro non la si trova ancora) e ovviamente sarei felice di vederla viaggiare a manetta...:D (magari di insidiare il trono della 8800 Ultra:mc: )
Iantikas
18-07-2007, 16:04
Si innanzitutto i FATTI
http://img53.imageshack.us/img53/2652/fatti2mv5.th.jpg (http://img53.imageshack.us/my.php?image=fatti2mv5.jpg)
http://img182.imageshack.us/img182/328/fattivu8.th.jpg (http://img182.imageshack.us/my.php?image=fattivu8.jpg)
specifico per estrema trasparenza, visto il tono del tuo post, che ho fatto una prova velocissima con il demo di overlord, la prima applicazione 3d che mi è venuta, altrimenti le temp a quella frequenza con il mio dissi default (altro che liquido :sbonk: :sbonk: :sbonk: ) sarebbe stata vicina agli 80°, ma in passato ho testato quelle frequenze per ore, dunque sono rs.
Per il resto :eek: :eek:
la tua arroganza è pari solo alla tua saccenza, io cercavo solo di discutere civilmente credo partendo dalla mia esperienza, ma evidentemente ho sbagliato persona e forse la tua reazione da coda di paglia (pallonaro addirittura deficiente??????? Ma chi si è mai permesso?) è solo una conferma di questo
ciao ciao ;)
p.s.: chiedo scusa a tutti gli altri per aver "rovinato" un pò il tread, ma vedete che non era mia intenzione, volevo solo chiarire le "cose" che affermava Iantikas per magari imparare qualcosa in più, ma evidentemente ho sbagliato valutazione
puoi rigirare la frittata quanta volte voi...
mah, davvero forse sono io che non capisco (in realtà leggendo il post subito prima del tuo non solo io) ......
a certo, 2° di differenza, certo......
la temp di 71° è strano che sia identica a quella default in full, a parità di rotazione della ventola, c'è poco da fare, quindi o sei molto fortunato o qualcosa cmq non mi torna
effettivamente è molto strano, sembra una cosa al di fuori di ogni legge fisica\termica\quel che volete
se questo nn'è dare velatamente del pallonaro nn so proprio cosa lo sai...
...ora ke ti ho fornito le prove d ciò ke affermavo finisce ke sono arrogente e saccente...vabbeh
...poi mi spieghi nel discorso temp oc/def della hd2900xt ke centra ora il tuo screen delle temp della tua 8800GTX...
...ciao
Iantikas guarda che non ha tutti i torti... come avevo detto qualche post fa, alzando da 740 a 825 MHz la gpu, a me è aumentata la temperatura di 10° in full quindi non so come sia possibile che a te ti sia alzata solo di 1°... :boh:
sei sicuro di aver messo la frequenza e poi dato l'ok :asd: ?
appleroof
18-07-2007, 16:18
...poi mi spieghi nel discorso temp oc/def della hd2900xt ke centra ora il tuo screen delle temp della tua 8800GTX...
...ciao
Guarda mi pento davvero di aver intrapreso questo discorso con te, ma a questo punto chiudiamolo
gli screnn che ti ho postato dimostrano semplicemtne quello che vedi (non solo le temp, guarda le frequenze) ma lo sai quali sono le freq. default della 8800gtx??? 575/1800, io la porto senza problema a 650/2000, quindi 75mhz in più che default con dissi default e senza vmod, altro che liquido e tutto il resto cui ti riferivi tu, ora basta direi, ci siamo anche dilungati troppo
dimenticavo: almeno 25/30mhz li ho raggiunti con dissi default, senza flash bios e vmod dalla 5700ultra in poi, quindi il fatto che la mia salga a quelle freq. con dissi default e resto pure non è una novità assoluta, ti dirò. Mi sà che a questo punto sei tu ad aver cominciato appena ora a dilettarti con l'oc, oppure ogni volta hai speso un sacco di moneta per montare il liquido e salire di 25/30mhz sulla gpu....:asd:
ciao ciao ;)
appleroof
18-07-2007, 16:18
Iantikas guarda che non ha tutti i torti... come avevo detto qualche post fa, alzando da 740 a 825 MHz la gpu, a me è aumentata la temperatura di 10° in full quindi non so come sia possibile che a te ti sia alzata solo di 1°... :boh:
sei sicuro di aver messo la frequenza e poi dato l'ok :asd: ?
:asd: :asd: :asd:
ale0bello0pr
18-07-2007, 16:23
Iantikas guarda che non ha tutti i torti... come avevo detto qualche post fa, alzando da 740 a 825 MHz la gpu, a me è aumentata la temperatura di 10° in full quindi non so come sia possibile che a te ti sia alzata solo di 1°... :boh:
sei sicuro di aver messo la frequenza e poi dato l'ok :asd: ?
lol asd rotfl lmao wtflolit
lol asd rotfl lmao wtflolit
:asd:
Puoi postare il link dove parlano della riscittura dei driver da 0.
Non lo posso postare perchè è una notizia che ho avuto da un dipendente AMD (o meglio ex), comunque anche nelle release note si trovano accenni in questa direzione, la data più probabile è ottobre.
Inoltra qualcuno del forum scrisse al supporto tecnico avendo le medesime testimonianze.
Ottimo, ora è molto più chiaro, quindi teoricamente le vere potenzialità di R600 si cominceranno a vedere con i drivers di settembre/ottobre (Catalyst 8.0?), giusto giusto in tempo per l'arrivo di Crysis... :)
Sarei curioso di vedere se con dei drivers ad-hoc riuscisse a sorpassare la GTX...
Troppo ottimista? ;)
7.9 a settembre e 7.10 a ottobre, il primo è l'anno il secondo il mese ;)
Iantikas guarda che non ha tutti i torti... come avevo detto qualche post fa, alzando da 740 a 825 MHz la gpu, a me è aumentata la temperatura di 10° in full quindi non so come sia possibile che a te ti sia alzata solo di 1°... :boh:
sei sicuro di aver messo la frequenza e poi dato l'ok :asd: ?
ma strano anche a me se alzo dai 740 agli 800.
la temperatura in full mi si alza solo di 1 maz 2 gradi tipo 3dmark06 a default sono sui 69-70 poi se metto a 800 e rifaccio andare il 3dmark a chip cmq bello caldo la temperatura mi sta sui 71-72max.
hihihi sicuro di aver alazato la frequenza xè in ogni passata di 3dmark metto sempre in ultimo il test del fillrate;)
Non lo posso postare perchè è una notizia che ho avuto da un dipendente AMD (o meglio ex), comunque anche nelle release note si trovano accenni in questa direzione, la data più probabile è ottobre.
Inoltra qualcuno del forum scrisse al supporto tecnico avendo le medesime testimonianze.
ma ti dirò ogni tanto ati fanno una cosa del genere quando usci doom3 da ati sbandierarono che in capo a 2 o 3 release di dvr avrebbero riscritto da 0 il compilatore ogl.
quindi è plausibile che la stessa operazione venga fatta ciclicamente una fase di riscrittura pesante dei dvr ovviamente finalizzata ad un maggiore incremento di performaces sulle nuove vga che non sulle vecchie che ovviamente potrebbero cmq beneficiarne.
Iantikas
18-07-2007, 18:39
Guarda mi pento davvero di aver intrapreso questo discorso con te, ma a questo punto chiudiamolo
gli screnn che ti ho postato dimostrano semplicemtne quello che vedi (non solo le temp, guarda le frequenze) ma lo sai quali sono le freq. default della 8800gtx??? 575/1800, io la porto senza problema a 650/2000, quindi 75mhz in più che default con dissi default e senza vmod, altro che liquido e tutto il resto cui ti riferivi tu, ora basta direi, ci siamo anche dilungati troppo
dimenticavo: almeno 25/30mhz li ho raggiunti con dissi default, senza flash bios e vmod dalla 5700ultra in poi, quindi il fatto che la mia salga a quelle freq. con dissi default e resto pure non è una novità assoluta, ti dirò. Mi sà che a questo punto sei tu ad aver cominciato appena ora a dilettarti con l'oc, oppure ogni volta hai speso un sacco di moneta per montare il liquido e salire di 25/30mhz sulla gpu....:asd:
ciao ciao ;)
perfetto...sei un troll...nn c'è altra spiegazione...
...ho detto ke passando da un buon dissi ad aria ad un buon liquido il miglioramento ke si ottiene è mediemente d 30mhz (rimanendo a voltaggio def)...
...NON ho detto ke mettendo a liquido la gpu al max alzi le freq d 30mhz rispetto alle freq def....
...ma lo capisci l'italiano???....come fai a rispondermi in questa maniera (ke cosa centra quanto hai alzato le freq col dissi originale???)...cmq kiuso definitivamente te ne vai dritto in ignore...addio
vediamo di darci una calmata
>bYeZ<
ma mi prendi in giro???...575mhz è la freq d default della 8800GTX ke tu possiedi....è kiaro ke partendo da def. il guadagno è + d 30mhz passando a luiquido..ma nn penso proprio ke ad aria nn riuscivi ad alzare neanke d un mhz...
...o qua si discute seriamente, se dobbiamo prenderci in giro me ne tiro proprio fuori...ciao
no che non ti prendo in giro:angel: intendo comunque che se raggiungi un ipotetico max OC ad aria il delta t a liquido ti permette di guadagnare + che 30 mhz che tu dici.
3DMark79
18-07-2007, 20:33
Non lo posso postare perchè è una notizia che ho avuto da un dipendente AMD (o meglio ex), comunque anche nelle release note si trovano accenni in questa direzione, la data più probabile è ottobre.
Inoltra qualcuno del forum scrisse al supporto tecnico avendo le medesime testimonianze.
Buono, dunque hai queste amicizie!?! :asd:
Dunque sai il fatto tuo per questo hai preso la HD2900XT saprai che probabilmente ci sono risvolti positivi!?!:yeah:
Mi raccomando Pat77 se sai qualcosa in più di noi non esitare a dircelo,tranquillo teniamo la bocca chiusa!:fiufiu:
perfetto...sei un troll...nn c'è altra spiegazione...
...ho detto ke passando da un buon dissi ad aria ad un buon liquido il miglioramento ke si ottiene è mediemente d 30mhz (rimanendo a voltaggio def)...
...NON ho detto ke mettendo a liquido la gpu al max alzi le freq d 30mhz rispetto alle freq def....
...ma lo capisci l'italiano???....come fai a rispondermi in questa maniera (ke cosa centra quanto hai alzato le freq col dissi originale???)...cmq kiuso definitivamente te ne vai dritto in ignore...addio
aspetta qui ti opino un attimo io.
la mia hd2900xt a voltaggi default fa gli 800mhz ad aria e sotto liquido bencha tranquillamente a 900mhz e è stabile a 875.
ergo inizio a pensare che oltre la differenza buon dissipatore ad aria o buon liquido sia data che dai differenti tipi di chip ed archidetture.
evidentemente una 8800 a 90nm archidetturarlmente ha dei problemi a spingersi oltre certi clock propio per limiti fisici, una hd2900xt a 80nm messa a temperature da liquido riesce ad avere aumenti mediamente superiori.
MonsterMash
19-07-2007, 00:04
aspetta qui ti opino un attimo io.
la mia hd2900xt a voltaggi default fa gli 800mhz ad aria e sotto liquido bencha tranquillamente a 900mhz e è stabile a 875.
ergo inizio a pensare che oltre la differenza buon dissipatore ad aria o buon liquido sia data che dai differenti tipi di chip ed archidetture.
evidentemente una 8800 a 90nm archidetturarlmente ha dei problemi a spingersi oltre certi clock propio per limiti fisici, una hd2900xt a 80nm messa a temperature da liquido riesce ad avere aumenti mediamente superiori.
Una curiosità: con questo caldo estivo, che temperature fai sotto liquido?
Ciao
Non lo posso postare perchè è una notizia che ho avuto da un dipendente AMD (o meglio ex), comunque anche nelle release note si trovano accenni in questa direzione, la data più probabile è ottobre.
Inoltra qualcuno del forum scrisse al supporto tecnico avendo le medesime testimonianze.
se vuoi ti firmo un NAD se mi dici qualcosa in più, che ne dici? :D
cmq da quello che ho capito dagli ultimi post i driver attuali sono fatti molto ma molto male (anche forse per la complessità di R600)?
se vuoi ti firmo un NAD se mi dici qualcosa in più, che ne dici? :D
cmq da quello che ho capito dagli ultimi post i driver attuali sono fatti molto ma molto male (anche forse per la complessità di R600)?
no scusa io che seguo praticamente questo tread da quando lo hanno aperto credo che nessuno qui abbia mai detto che gli attuali dvr siano fatti ne molto ma molto ne molto male.
i dvr ci sono e gia quelli iniziali davano performances cmq allineati ad una 8800gts ma con evidenti cali di prestazioni in alcuni casi da imputare ai dvr immaturi che non a problemi di natura hw.
non sono fatti male ma hanno bisogno di una notevole ottimizzati per via dell'archidettura differente del ringbus che nella sua nuova incarnazione garantisce una modulabilità se vogliamo "infinita" e ottimizzabile per ogni singola applicazione ma che cmq va addomesticata ed indirizzata ad hoc.
c'è anche il discorso di mettere in condizione di lavorare sempre a pieno regime le 320sp della vga.
Credo che quello che dico adesso e molti concorderanno con me.
non ci sono dvr fatti male per la vga ma ci sono solo dvr da ottimizzare per la nuova vga che ovviamente si porta in dote soluzioni del passato ma in una nuova revisione.
diciamo che i dvr di adesso sfruttano in maniera generica le potenzialità delle scheda in futuro ovviamente sono previsti operazioni mirate sui dvr per far andare la scheda al massimo dell'efficenza possibile.
imho se volessi sbilanciarmi su qualche numero dai test che ho fatto se i dvr attuali sfruttano un 70% del potenziale è tanto.
è come un atleta con un robusto fisico che puo fare di tutto ma ha solo bisogno di un coach che gli affini le tecniche.
Una curiosità: con questo caldo estivo, che temperature fai sotto liquido?
Ciao
purtroppo la vga è stata testata a liquido fino ad una settimana fà ora è tornata ad aria per motivi di spazio ho dovuto sbaraccare tutto l'impianto.
MonsterMash
19-07-2007, 01:14
purtroppo la vga è stata testata a liquido fino ad una settimana fà ora è tornata ad aria per motivi di spazio ho dovuto sbaraccare tutto l'impianto.
Io in questi periodi ho grossi problemi a raffreddare l'acqua. Dopo qualche ora di gioco arriva ad oltre 40 gradi, con la T ambiente di poco più di 30 gradi. E con l'acqua a 40-42 gradi, sia la cpu, sia la gpu, sia il chipset NF4 ci manca poco che vengano riscaldati invece che raffreddati!
Io in questi periodi ho grossi problemi a raffreddare l'acqua. Dopo qualche ora di gioco arriva ad oltre 40 gradi, con la T ambiente di poco più di 30 gradi. E con l'acqua a 40-42 gradi, sia la cpu, sia la gpu, sia il chipset NF4 ci manca poco che vengano riscaldati invece che raffreddati!
ho lo stesso tuo problema:) credo sia il limite di un sistema ad acqua, l'unica soluzione é di montare un refrigeratore (per acquari) al posto del radiatore.
Speriamo che verso ottobre si riesca a vedere qualche avvicinamento alla 8800gtx...
Ma una versione XTX è in previsione di uscita ?!?
Grazie.
Quoziente
19-07-2007, 08:00
Speriamo che verso ottobre si riesca a vedere qualche avvicinamento alla 8800gtx...
Ma una versione XTX è in previsione di uscita ?!?
Grazie.
Ati non ha rilasciato nessuna dichiarazione in merito, si vocifera (quindi anche qui niente di ufficiale, solo voci) che ci sarà una revisione di r600 a 65nm verso fine anno (HD 2950 XT?)... Tale revisione dovrebbe permettere alla nuova scheda di consumare e scaldare meno...
Poi per quanto riguarda r700 (sempre se si chiamerà così) se ne riparla nel 2008...
Speriamo che verso ottobre si riesca a vedere qualche avvicinamento alla 8800gtx...
Ma una versione XTX è in previsione di uscita ?!?
Grazie.
credo che la xtx sia in realtà la versione con un 1024mn gddr4 che si può trovare all'estero a circa 430 euro..
no scusa io che seguo praticamente questo tread da quando lo hanno aperto credo che nessuno qui abbia mai detto che gli attuali dvr siano fatti ne molto ma molto ne molto male.
i dvr ci sono e gia quelli iniziali davano performances cmq allineati ad una 8800gts ma con evidenti cali di prestazioni in alcuni casi da imputare ai dvr immaturi che non a problemi di natura hw.
non sono fatti male ma hanno bisogno di una notevole ottimizzati per via dell'archidettura differente del ringbus che nella sua nuova incarnazione garantisce una modulabilità se vogliamo "infinita" e ottimizzabile per ogni singola applicazione ma che cmq va addomesticata ed indirizzata ad hoc.
c'è anche il discorso di mettere in condizione di lavorare sempre a pieno regime le 320sp della vga.
Credo che quello che dico adesso e molti concorderanno con me.
non ci sono dvr fatti male per la vga ma ci sono solo dvr da ottimizzare per la nuova vga che ovviamente si porta in dote soluzioni del passato ma in una nuova revisione.
diciamo che i dvr di adesso sfruttano in maniera generica le potenzialità delle scheda in futuro ovviamente sono previsti operazioni mirate sui dvr per far andare la scheda al massimo dell'efficenza possibile.
imho se volessi sbilanciarmi su qualche numero dai test che ho fatto se i dvr attuali sfruttano un 70% del potenziale è tanto.
è come un atleta con un robusto fisico che puo fare di tutto ma ha solo bisogno di un coach che gli affini le tecniche.
Secondo me i driver attuali non sono affatto male come fruibilità, tant'è che non ho problemi con nessun gioco, peccano in efficienza e in qualche piccolo bug, tipo quello della frequnza 2d, dell'af abilitato da catalyst, del controller ringbus solo agli inizi.
Anche solo la modalità FSAA indica un indirizzo ben preciso che pagherà in futuro imho, in dx10 lo puoi fare da rops o da shader, ma in questo secondo caso, probabilemnte, sarà abilitabile ovunque, mentre già ora si vedono i limiti di quello da rops.
+Lonewolf+
19-07-2007, 08:28
Secondo me i driver attuali non sono affatto male come fruibilità, tant'è che non ho problemi con nessun gioco, peccano in efficienza e in qualche piccolo bug, tipo quello della frequnza 2d, dell'af abilitato da catalyst, del controller ringbus solo agli inizi.
Anche solo la modalità FSAA indica un indirizzo ben preciso che pagherà in futuro imho, in dx10 lo puoi fare da rops o da shader, ma in questo secondo caso, probabilemnte, sarà abilitabile ovunque, mentre già ora si vedono i limiti di quello da rops.
un'altra caratteristica che pagherà in futuro saranno le 237000 operazioni al secondo di shading che in dx10 potrebbero fare la differenza
un'altra caratteristica che pagherà in futuro saranno le 237000 operazioni al secondo di shading che in dx10 potrebbero fare la differenza
Dalle demo ati puntano più sull'unità programmabile di geometry tessellation, e anche nei test è qui dove si vede la differenza.
no scusa io che seguo praticamente questo tread da quando lo hanno aperto credo che nessuno qui abbia mai detto che gli attuali dvr siano fatti ne molto ma molto ne molto male.
i dvr ci sono e gia quelli iniziali davano performances cmq allineati ad una 8800gts ma con evidenti cali di prestazioni in alcuni casi da imputare ai dvr immaturi che non a problemi di natura hw.
non sono fatti male ma hanno bisogno di una notevole ottimizzati per via dell'archidettura differente del ringbus che nella sua nuova incarnazione garantisce una modulabilità se vogliamo "infinita" e ottimizzabile per ogni singola applicazione ma che cmq va addomesticata ed indirizzata ad hoc.
c'è anche il discorso di mettere in condizione di lavorare sempre a pieno regime le 320sp della vga.
Credo che quello che dico adesso e molti concorderanno con me.
non ci sono dvr fatti male per la vga ma ci sono solo dvr da ottimizzare per la nuova vga che ovviamente si porta in dote soluzioni del passato ma in una nuova revisione.
diciamo che i dvr di adesso sfruttano in maniera generica le potenzialità delle scheda in futuro ovviamente sono previsti operazioni mirate sui dvr per far andare la scheda al massimo dell'efficenza possibile.
imho se volessi sbilanciarmi su qualche numero dai test che ho fatto se i dvr attuali sfruttano un 70% del potenziale è tanto.
è come un atleta con un robusto fisico che puo fare di tutto ma ha solo bisogno di un coach che gli affini le tecniche.
si Anch'io seguo questo 3d dalle prima pagine, però cmq se gli attuali driver danno tutti questi problemi è perchè hanno bisogno di molti accorgimenti e ottimizzazioni, e cmq il succo della storia è che nn sono perfetti quindi sono fatti male, nn intendo in senso cattivo, ma solo che hanno bisogno di tempo per maturare. effettivamente ieri sera mi sono espresso male
MonsterMash
19-07-2007, 11:05
ho lo stesso tuo problema:) credo sia il limite di un sistema ad acqua, l'unica soluzione é di montare un refrigeratore (per acquari) al posto del radiatore.
Ho dato un'occhiata in giro, ma i prezzi dei refrigeratori per acquari sono spropositati (sui 300 euro), e mi chiedo inoltre se siano aggeggi rumorosi. Perchè io ho scelto il liquido non solo per le prestazioni, ma anche per la silenziosità.
Forse dovrei comprare un secondo radiatore... (già ne ho uno triventola!)
ho lo stesso tuo problema:) credo sia il limite di un sistema ad acqua, l'unica soluzione é di montare un refrigeratore (per acquari) al posto del radiatore.
ragazzi dipende da quanto usate la vaschetta e il sistema è integrato?
io ad esempio avevo il radiatore raffreddato da 2 12x12x4 da un alta portata d'aria e come vaschetta una tanica di acqua distillata da 10lt con pompa ad immersione.ovviamente messa in un posto dove nn batteva mai il sole.
e di questi problemi nn ne ho mai avuti.
certo se poi state con un sistema integrato o una vaschettina da mezzo litro è ovvio che l'h20 sale subito di temperatura.
si Anch'io seguo questo 3d dalle prima pagine, però cmq se gli attuali driver danno tutti questi problemi è perchè hanno bisogno di molti accorgimenti e ottimizzazioni, e cmq il succo della storia è che nn sono perfetti quindi sono fatti male, nn intendo in senso cattivo, ma solo che hanno bisogno di tempo per maturare. effettivamente ieri sera mi sono espresso male
mi sembra che nn ci siano di problemi atroci ad esempio pat77 riscontra un problema di switch delle frequenze 2d che io nn riscontro mentre l'af da catalist nn lo ho provato o meglio nn me ne sono accorto se viene applicato o meno oggi controllo...e ovviamente un ringbus da ottizzare ma quello non lo metterei nelle pecche dei dvr xè non è che non funziona o funziona a mezzo servizio ma come tutte le archidetture ha bisogno di quei 6 mesi per essere affinata.
alla fine avendo una 8800gts quasi appena uscita mi sono sorbito i primi forceware che avevo problemi con final fantasy online ed era talmente ingiocabile che ho dovuto lasciare il gdr dopo 1 anno e mezzo di gioco.
anche nvidia ha affinato la sua archidettura aumentando le prestazioni in quasi tutti i giochi di un 20% con le 8800.
ma all'inizio le magagne dvr posso stare su ogni archidettura e preciso non solo all'inizio;)
MonsterMash
19-07-2007, 11:16
ragazzi dipende da quanto usate la vaschetta e il sistema è integrato?
io ad esempio avevo il radiatore raffreddato da 2 12x12x4 da un alta portata d'aria e come vaschetta una tanica di acqua distillata da 10lt con pompa ad immersione.ovviamente messa in un posto dove nn batteva mai il sole.
e di questi problemi nn ne ho mai avuti.
certo se poi state con un sistema integrato o una vaschettina da mezzo litro è ovvio che l'h20 sale subito di temperatura.
Io ho una vasca da 10 litri, e un radiatore triventola. Le ventole non sono il massimo (rasurbo basic), e sono montate nel modo meno efficente (soffiano invece di aspirare), ma mi pare cmq esagerato 40 gradi o più per l'acqua senza neanche un uso intensivo del pc...
C'è da dire che il mio sistema deve dissipare veramente una grande quantità di calore. La sola cpu ne produce circa 240W, la gpu probabilmente è sotto i 200W, e poi c'è il chipset nf4, che ne produrrà un'altra ventina o giù di li'.
Cmq questa non è la sede adatta per discuterne.
Ciao
3DMark79
19-07-2007, 11:30
Ho dato un'occhiata in giro, ma i prezzi dei refrigeratori per acquari sono spropositati (sui 300 euro), e mi chiedo inoltre se siano aggeggi rumorosi. Perchè io ho scelto il liquido non solo per le prestazioni, ma anche per la silenziosità.
Forse dovrei comprare un secondo radiatore... (già ne ho uno triventola!)
Mio cugino utilizza un refrigeratore per il suo mega acquario e sicuramente si sente ed è anche molto ingombrante ed il prezzo mi pare che sia proprio circa 300euro.:D
Athlon 64 3000+
19-07-2007, 12:27
http://www.station-drivers.com/page/ati%20catalyst.htm
usciti catalist 7.7 beta e sono datati 26 giugno un giorno dopo gli hotfix dei 7.6
peppecbr
19-07-2007, 12:35
ciao a tutti , seguo il th quotidianamente...
ho 2 domande da fare!!
350€ è un buon prezzo ? o si trova di meno? ci saranno cali da qua a settembre/ottobre?
posso riciclare il mio dissi? Thermalright HR-03? i fori hanno le stesse misure della serie 1800/1900?
grazie :p
ale0bello0pr
19-07-2007, 12:41
ciao a tutti , seguo il th quotidianamente...
ho 2 domande da fare!!
350€ è un buon prezzo ? o si trova di meno? ci saranno cali da qua a settembre/ottobre?
X quello c'è la sezione CONSIGLI X GLI ACQUISTI:read:
posso riciclare il mio dissi? Thermalright HR-03? i fori hanno le stesse misure della serie 1800/1900?
grazie :p
Lo vuoi riciclare per farci cosa ehm?:stordita:
peppecbr
19-07-2007, 12:44
X quello c'è la sezione CONSIGLI X GLI ACQUISTI:read:
Lo vuoi riciclare per farci cosa ehm?:stordita:
:eek: è un no? lo dovrei sostituire all'originale :mbe: dite tutti che fa casino , immagino di questi tempi che la TAMB e di 35° in questo momento :cry:
http://www.station-drivers.com/page/ati%20catalyst.htm
usciti catalist 7.7 beta e sono datati 26 giugno un giorno dopo gli hotfix dei 7.6
Penso non ci siano particolari innovazioni su questi driver ma sono sicuramente da provare, io sono in attesa dei 7.7 siamo al 19 quindi fra un po li dovremmo vedere :)
ale0bello0pr
19-07-2007, 12:55
:eek: è un no? lo dovrei sostituire all'originale :mbe: dite tutti che fa casino , immagino di questi tempi che la TAMB e di 35° in questo momento :cry:
sei fortunato da me 40° la temperatura della camera in IDLE.....:muro:
peppecbr
19-07-2007, 13:07
ma quindi sti fori sono le stesse misure della serie x1xxx? :D
mi avete detto di tutto , tranne questo.
ma quindi sti fori sono le stesse misure della serie x1xxx? :D
mi avete detto di tutto , tranne questo.
si i fori sono gli stessi per quanto riguarda i fori della gpu.
per la sistemazione dei componenti non saprei che dirti se ci sono alcuni condensatori o mosfet che danno fastidio.
sicuramente gli zalman ci stanno da quello che ho potuto vedere con la vga senza dissi.
Qualcuno sa dirmi per cortesia come si fa a postare delle foto di certe dimensioni (1600 x 1200)perche ne ho alcune che potrebbero far imbestialire piu di uno in questo forum , e soprattutto verso la SAPPHIRE ...
Grazie
mi sembra che nn ci siano di problemi atroci ad esempio pat77 riscontra un problema di switch delle frequenze 2d che io nn riscontro mentre l'af da catalist nn lo ho provato o meglio nn me ne sono accorto se viene applicato o meno oggi controllo...e ovviamente un ringbus da ottizzare ma quello non lo metterei nelle pecche dei dvr xè non è che non funziona o funziona a mezzo servizio ma come tutte le archidetture ha bisogno di quei 6 mesi per essere affinata.
alla fine avendo una 8800gts quasi appena uscita mi sono sorbito i primi forceware che avevo problemi con final fantasy online ed era talmente ingiocabile che ho dovuto lasciare il gdr dopo 1 anno e mezzo di gioco.
anche nvidia ha affinato la sua archidettura aumentando le prestazioni in quasi tutti i giochi di un 20% con le 8800.
ma all'inizio le magagne dvr posso stare su ogni archidettura e preciso non solo all'inizio;)
Il problema delle frequenze 2d nelle applicazioni 3d era dei primissimi driver, ora è risolto ;), in particolare succedeva da 1280 in su con filtri, in dirt ad esempio.
Qualcuno sa dirmi per cortesia come si fa a postare delle foto di certe dimensioni (1600 x 1200)perche ne ho alcune che potrebbero far imbestialire piu di uno in questo forum , e soprattutto verso la SAPPHIRE ...
Grazie
fai la foto, la uppi qua:
http://imageshack.us/
e quando metti il link , metti quello delle thumbnails per i forum
così c'è la foto piccolina che uno si può ingrandire!
3DMark79
19-07-2007, 13:48
Qualcuno sa dirmi per cortesia come si fa a postare delle foto di certe dimensioni (1600 x 1200)perche ne ho alcune che potrebbero far imbestialire piu di uno in questo forum , e soprattutto verso la SAPPHIRE ...
Grazie
Devi caricarle in questo sito:
http://translate.google.com/translate?hl=it&sl=en&u=http://imageshack.us/&sa=X&oi=translate&resnum=1&ct=result&prev=/search%3Fq%3Dimage%2Bshack%26hl%3Dit%26client%3Dfirefox-a%26channel%3Ds%26rls%3Dorg.mozilla:it:official%26hs%3DSup%26sa%3DG
dopo clicca su "Ospitarlo" e poi inserisci qui il link che ti da lui .
mi sembra che nn ci siano di problemi atroci ad esempio pat77 riscontra un problema di switch delle frequenze 2d che io nn riscontro mentre l'af da catalist nn lo ho provato o meglio nn me ne sono accorto se viene applicato o meno oggi controllo...e ovviamente un ringbus da ottizzare ma quello non lo metterei nelle pecche dei dvr xè non è che non funziona o funziona a mezzo servizio ma come tutte le archidetture ha bisogno di quei 6 mesi per essere affinata.
alla fine avendo una 8800gts quasi appena uscita mi sono sorbito i primi forceware che avevo problemi con final fantasy online ed era talmente ingiocabile che ho dovuto lasciare il gdr dopo 1 anno e mezzo di gioco.
anche nvidia ha affinato la sua archidettura aumentando le prestazioni in quasi tutti i giochi di un 20% con le 8800.
ma all'inizio le magagne dvr posso stare su ogni archidettura e preciso non solo all'inizio;)
si si infatti, l'unica cosa che secondo me dovrebbero migliorare è la pensantezza dell'AA. però cmq tutto sommato nn sono così pessimi, è vero:)
peppecbr
19-07-2007, 13:56
si i fori sono gli stessi per quanto riguarda i fori della gpu.
per la sistemazione dei componenti non saprei che dirti se ci sono alcuni condensatori o mosfet che danno fastidio.
sicuramente gli zalman ci stanno da quello che ho potuto vedere con la vga senza dissi.
grandissimo :sofico: :oink: almeno non dovrò spendere 50€ per un ulteriore dissi :D inizio a raccimolare :p
http://img359.imageshack.us/img359/2824/19072007317kx9.th.jpg (http://img359.imageshack.us/my.php?image=19072007317kx9.jpg)
http://img183.imageshack.us/img183/2586/19072007318xd5.th.jpg (http://img183.imageshack.us/my.php?image=19072007318xd5.jpg)
http://img183.imageshack.us/img183/4561/gpu2qr3.th.jpg (http://img183.imageshack.us/my.php?image=gpu2qr3.jpg)
http://img183.imageshack.us/img183/1618/gpu1mr4.th.jpg (http://img183.imageshack.us/my.php?image=gpu1mr4.jpg)
Bene .. Come potete vedere abbastanza chiaramente , (oggi mi e arrivata la seconde HD,e scusate per la qualita delle foro ma il mio n70 non puo fare meglio) i 2 dissipatori sono completamente differenti.
Quello sopra ha 1 Heatpipe(o come cavolo si scrive ) obliqua e 1 orrizzontale , quella sotto ne ha 2 oblique e 1 orrizzontale , e a vista il rame e di qualita ettamente maggiore .
E le temperature lo dimostrano . la prima sta tra i 68 70 gradi con il casino di ventola che ne consegue , la seconsa sta tra i 42 45 , silenziosissimo.
Ora mi domando , come mi devo comportare , chiamo la sapphire?
Spero di essere stato utile a qualcun altro visto che c e gente che si lamentava della rumorosita della ventola.
Che si possa acquistare separatamente o in caso contrario farselo spedire dalla sapphire(gratis naturalmente)?
Forse pero era meglio che lo postassi nell altro Th ufficiale
Guarda te che sfiga .Ste cose mi fanno roteare le palpebre.
Che mi abbiano montato il dissi del x 1950? boh!! qualcuno puo darmi un suggerimento?
Quoziente
19-07-2007, 14:49
La mia scheda è uguale alla prima delle tue (quella in alto). Stasera provo a controllare le temperature...
http://img359.imageshack.us/img359/2824/19072007317kx9.th.jpg (http://img359.imageshack.us/my.php?image=19072007317kx9.jpg)
http://img183.imageshack.us/img183/2586/19072007318xd5.th.jpg (http://img183.imageshack.us/my.php?image=19072007318xd5.jpg)
http://img183.imageshack.us/img183/4561/gpu2qr3.th.jpg (http://img183.imageshack.us/my.php?image=gpu2qr3.jpg)
http://img183.imageshack.us/img183/1618/gpu1mr4.th.jpg (http://img183.imageshack.us/my.php?image=gpu1mr4.jpg)
Bene .. Come potete vedere abbastanza chiaramente , (oggi mi e arrivata la seconde HD,e scusate per la qualita delle foro ma il mio n70 non puo fare meglio) i 2 dissipatori sono completamente differenti.
Quello sopra ha 1 Heatpipe(o come cavolo si scrive ) obliqua e 1 orrizzontale , quella sotto ne ha 2 oblique e 1 orrizzontale , e a vista il rame e di qualita ettamente maggiore .
E le temperature lo dimostrano . la prima sta tra i 68 70 gradi con il casino di ventola che ne consegue , la seconsa sta tra i 42 45 , silenziosissimo.
Ora mi domando , come mi devo comportare , chiamo la sapphire?
Spero di essere stato utile a qualcun altro visto che c e gente che si lamentava della rumorosita della ventola.
Che si possa acquistare separatamente o in caso contrario farselo spedire dalla sapphire(gratis naturalmente)?
Forse pero era meglio che lo postassi nell altro Th ufficiale
Guarda te che sfiga .Ste cose mi fanno roteare le palpebre.
Che mi abbiano montato il dissi del x 1950? boh!! qualcuno puo darmi un suggerimento?
No. Solo che pare esistano 2 dissipatori stock. In molte foto prima del lancio infatti c'era il dissi a 3 pipe, ma poi la maggior parte delle prime schede ce l'avevano con sole 2 pipe. Che alla Sapphire abbiano deciso di cambiarlo per porre rimedio al rumore? Sarebbe interessante sapere se tutte le nuove Sapphire hanno il dissi a 3 pipe... :fagiano:
Tidus.hw
19-07-2007, 15:12
la mia ha il dissipatore vecchio, mi sembra*.*
quando torno a casa controllo...
ma tanto credo che presto passerò a liquido anche con la vga xD
3DMark79
19-07-2007, 16:31
http://img359.imageshack.us/img359/2824/19072007317kx9.th.jpg (http://img359.imageshack.us/my.php?image=19072007317kx9.jpg)
http://img183.imageshack.us/img183/2586/19072007318xd5.th.jpg (http://img183.imageshack.us/my.php?image=19072007318xd5.jpg)
http://img183.imageshack.us/img183/4561/gpu2qr3.th.jpg (http://img183.imageshack.us/my.php?image=gpu2qr3.jpg)
http://img183.imageshack.us/img183/1618/gpu1mr4.th.jpg (http://img183.imageshack.us/my.php?image=gpu1mr4.jpg)
Bene .. Come potete vedere abbastanza chiaramente , (oggi mi e arrivata la seconde HD,e scusate per la qualita delle foro ma il mio n70 non puo fare meglio) i 2 dissipatori sono completamente differenti.
Quello sopra ha 1 Heatpipe(o come cavolo si scrive ) obliqua e 1 orrizzontale , quella sotto ne ha 2 oblique e 1 orrizzontale , e a vista il rame e di qualita ettamente maggiore .
E le temperature lo dimostrano . la prima sta tra i 68 70 gradi con il casino di ventola che ne consegue , la seconsa sta tra i 42 45 , silenziosissimo.
Ora mi domando , come mi devo comportare , chiamo la sapphire?
Spero di essere stato utile a qualcun altro visto che c e gente che si lamentava della rumorosita della ventola.
Che si possa acquistare separatamente o in caso contrario farselo spedire dalla sapphire(gratis naturalmente)?
Forse pero era meglio che lo postassi nell altro Th ufficiale
Guarda te che sfiga .Ste cose mi fanno roteare le palpebre.
Che mi abbiano montato il dissi del x 1950? boh!! qualcuno puo darmi un suggerimento?
L'ultima che hai comprato è quella più silenziosa?:eek:
solo 2 pi#pe...:ncomment::incazzed:
L'ultima che hai comprato è quella più silenziosa?:eek:
Si Si .. ti dico .. In luogo climatizzato (camera mia ) la prima raggiunge i 70 gradi praticamente subito e quindi la ventola di conseguenza si sente , quell altra (sotto) per il momento non si e mai accesa.e ho fatto 3 3DMARK di seguito.
Conoscete qualche software che mi permetta di controlare simultaneamente la temp delle gpu?Provo co n everest
-Feanor-
19-07-2007, 17:12
Si Si .. ti dico .. In luogo climatizzato (camera mia ) la prima raggiunge i 70 gradi praticamente subito e quindi la ventola di conseguenza si sente , quell altra (sotto) per il momento non si e mai accesa.e ho fatto 3 3DMARK di seguito.
Conoscete qualche software che mi permetta di controlare simultaneamente la temp delle gpu?Provo co n everest
scusa eh :fagiano: ...ma non potrebbe essere semplicemente che la seconda scheda viene sfruttata pochissimo e quindi consuma e scalda molto meno...?? che driver usi...??? il punteggio del tua 3d 2006 quale è ...?? ;)
con questo nulla volgio togliere al fatto che 3 pipe abbassino di piu la temperatura ;)
Iantikas
19-07-2007, 17:14
finalmente sè scoperto l'arcano...io inxialmente nn cavevo fatto tanto caso e avevo sorvolato sulla cosa...
...cmq nelle varie rece avevo notato ke il dissi aveva due sole HP...la skeda ke mi è arrivata qualke giorno fa della sapphire invece ne ha 3...forse è x questo anke ke ottengo temp + basse...
...cmq x il lato driver io finora ho avuto un solo problema ke sarebbe ilò bug nei menu d lost planet dove va ad 1fps...ma solo nella skermata iniziale, nelle altre parti del menu e nel gioco no...ciao
-Feanor-
19-07-2007, 17:18
finalmente sè scoperto l'arcano...io inxialmente nn cavevo fatto tanto caso e avevo sorvolato sulla cosa...
...cmq nelle varie rece avevo notato ke il dissi aveva due sole HP...la skeda ke mi è arrivata qualke giorno fa della sapphire invece ne ha 3...forse è x questo anke ke ottengo temp + basse...
...cmq x il lato driver io finora ho avuto un solo problema ke sarebbe ilò bug nei menu d lost planet dove va ad 1fps...ma solo nella skermata iniziale, nelle altre parti del menu e nel gioco no...ciao
se nella parte driver ti sei rivolto a me...guarda che io intendevo per il supporto crossfire di albi80...;)
io pero ora nella mia futura ne volgio tre di pipe :cry: come faccio?? :cry:
3DMark79
19-07-2007, 17:19
Si Si .. ti dico .. In luogo climatizzato (camera mia ) la prima raggiunge i 70 gradi praticamente subito e quindi la ventola di conseguenza si sente , quell altra (sotto) per il momento non si e mai accesa.e ho fatto 3 3DMARK di seguito.
Conoscete qualche software che mi permetta di controlare simultaneamente la temp delle gpu?Provo co n everest
Addirittura neanche accende la ventola!?!:eek:
Dunque nelle nuove HD2900xt avranno hanno ottimizzato il dissipatore con un heatpipe in più!
Dunque non penso che ti abbiano messo un altro dissipatore di un'altra scheda.
Come programma a quanto pare i ragazzi qui si trovano bene con Riva tuner V.2.02 questa dovrebbe essere compatibile con R600.
PS:SONDAGGIO...A tutti quelli che hanno già la HD2900XT gentilmente controllate e fateci sapere quante heatpipe ha il vostro dissipatore e data d'acquisto...:read:
io pero ora nella mia futura ne volgio tre di pipe :cry: come faccio?? :cry:
ne compri a iosa fino a quando non ne trovi una a 3 HP :sofico:
finalmente sè scoperto l'arcano...io inxialmente nn cavevo fatto tanto caso e avevo sorvolato sulla cosa...
...cmq nelle varie rece avevo notato ke il dissi aveva due sole HP...la skeda ke mi è arrivata qualke giorno fa della sapphire invece ne ha 3...forse è x questo anke ke ottengo temp + basse...
...cmq x il lato driver io finora ho avuto un solo problema ke sarebbe ilò bug nei menu d lost planet dove va ad 1fps...ma solo nella skermata iniziale, nelle altre parti del menu e nel gioco no...ciao
Se così fosse tutti a comprare le Sapphire e a controllare che abbiano 3 pipe... :sofico: http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif
se nella parte driver ti sei rivolto a me...guarda che io intendevo per il supporto crossfire di albi80...;)
io pero ora nella mia futura ne volgio tre di pipe :cry: come faccio?? :cry:
La compri in un negozio fisico e ti fai aprire la scatola. ;)
Ragazzi siccome non posso leggere più di 360 pagine di 3d (sono arrivato solo a pag 78!!) mi potete dire come va la scheda con i catalyst 7.6 sia in vista che in xp?
Le prestazioni sono migliorate o sono ancora le stesse?
E i bug?
Grazie!
3DMark79
19-07-2007, 17:36
Se così fosse tutti a comprare le Sapphire e a controllare che abbiano 3 pipe... :sofico: http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif http://forum.toronews.net/images/smiles/pazzia.gif
La compri in un negozio fisico e ti fai aprire la scatola. ;)
Senza ombra di dubbio!;)
-Feanor-
19-07-2007, 17:37
La compri in un negozio fisico e ti fai aprire la scatola. ;)
no no no...io abito in un posto abbastanza sperduto :O...da me i pochi negozi di informatica che ci sono hanno in vetrina le 7300LE :doh::doh::doh: :cry:
http://img463.imageshack.us/img463/4655/19072007319pm2.th.jpg (http://img463.imageshack.us/my.php?image=19072007319pm2.jpg)
http://img443.imageshack.us/img443/6035/19072007320ou9.th.jpg (http://img443.imageshack.us/my.php?image=19072007320ou9.jpg)
Una foto e alla fine del canion nel 3dmark dopo aver fatto anche gli altri mentre l altra è in windows.
Queste a frequenze standard come potete vedere in basso a destra del display della tastiera, quindi da un 6 a 10 gradi in meno da quel che ho capito.
Quindi hanno cercato di ottimizzare il dissipatore.Non male.
Comunque la ventola si e accesa alla fine .Pero di inverno con 18 gradi nella stanza secondo me non si accende ..
Voi che dite.
-Feanor-
19-07-2007, 17:45
se hai voglia e tempo magari prova anche solo ad invertire le due schede in modo che la silenziosa sia la principale e l'altra secondaria ;) ....cosi vediamo subito come è la situazione...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.