PDA

View Full Version : [THREAD UFFICIALE] ATI RADEON 4870X2


Pagine : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84

monopalla
22-08-2008, 20:47
ragazzi secondo voi come e' questo punteggio al 3dmark advantage?

http://service.futuremark.com/results/showSingleResult.action?resultId=323304&resultType=19

micronauta1981
22-08-2008, 20:47
grazie per le info..per ora mi da solo pagato.dovrebbe aggiornarsi li in quella pagina...giuste?

kazama-resurrection86
22-08-2008, 20:56
è un ipotesi perchè mi sembra strano che il punteggio cpu sia cosi basso e cosi oggi mentre tornavo ho formulato questa teoria

il vista si prende 500/600 pti totali del 3d mark nn del solo cpu score ;)... posso dirti ke io con xp faccio gli stessi pti di dobby nel cpu score kon un q6600 a 3500mhz

crash2k
22-08-2008, 20:57
grazie per le info..per ora mi da solo pagato.dovrebbe aggiornarsi li in quella pagina...giuste?


tranquillo a me risulta pagata da ieri alle 12.13 e ancora non cambia, oggi ho chiamato, la scheda è stata assegnata stamattina al corriere il quale, non so perchè, gli da il tracking solamente il giorno dopo... praticamente teoricamente chiamando domani dovrebbero sapermi dire il tracking anche se in realtà l'hanno spedita oggi :mbe: :stordita:

Dobermann75
22-08-2008, 21:10
il vista si prende 500/600 pti totali del 3d mark nn del solo cpu score ;)... posso dirti ke io con xp faccio gli stessi pti di dobby nel cpu score kon un q6600 a 3500mhz

guarda io con vista64 con il q6600 @3,6ghz faccevo 5120 punti (cpu score)

giusto ad esempio un mio vecchio 3dm06 con ilq6600 @3,6ghz e la gts512mb occata...:http://img389.imageshack.us/img389/4121/corelcapture010003ar7.th.jpg (http://img389.imageshack.us/my.php?image=corelcapture010003ar7.jpg)

A 3,52 Ghz il q9450 fa un punteggio di 5250, contro i 5150 del q6600 a 3,6 ghz ;)

dunque un po di punti sul cpu score se li mangia,
Per vista bisongerebbe usare il vantage (dx10) ;)
comuqnue per me nel3dm06 sono importanti gli SM e HDR test...

kazama-resurrection86
22-08-2008, 21:26
guarda io con vista64 con il q6600 @3,6ghz faccevo 5120 punti (cpu score)

giusto ad esempio un mio vecchio 3dm06 con ilq6600 @3,6ghz e la gts512mb occata...:http://img389.imageshack.us/img389/4121/corelcapture010003ar7.th.jpg (http://img389.imageshack.us/my.php?image=corelcapture010003ar7.jpg)

A 3,52 Ghz il q9450 fa un punteggio di 5250, contro i 5150 del q6600 a 3,6 ghz ;)

dunque un po di punti sul cpu score se li mangia,
Per vista bisongerebbe usare il vantage (dx10) ;)
comuqnue per me nel3dm06 sono importanti gli SM e HDR test...

si è logico ke qualcosa sul cpu score se lo mangia dal passaggio xp > vista ma nn certo 500 pti kon la gts okkata a 777gpu e a 390*9 su xp faccio 16530 per cui...

Sergio_Di_Rio
22-08-2008, 22:34
quoto anke stavolta, niente da fare il tutto si incentra su crysis(=malattia di FPS) ke ribadisco nn è un gioko eccelso ce ne sono altri 1000 volte meglio..

:doh: :doh: :doh: No no no no no e no! Insomma non ci vuole tanto a capirlo! Non è per malattia di fps! Non è perchè adoriamo Crysis!

Il tutto si incentra su Crysis, non come gioco, ma come benchmark. Questo perchè è l'unico gioco in grado di mettere in ginocchio tutte le schede video uscite finora, mentre invece, gli altri giochi, non impensieriscono minimamente neanche la generazione passata.

Capì?;)

Superdm83
22-08-2008, 22:43
:doh: :doh: :doh: No no no no no e no! Insomma non ci vuole tanto a capirlo! Non è per malattia di fps! Non è perchè adoriamo Crysis!

Il tutto si incentra su Crysis, non come gioco, ma come benchmark. Questo perchè è l'unico gioco in grado di mettere in ginocchio tutte le schede video uscite finora, mentre invece, gli altri giochi, non impensieriscono minimamente neanche la generazione passata.

Capì?;)

Ma vi siete mai chiesti perchè mette incrisi tutte le schede? perchè ha un motore grafico scritto da una scimmiaaaaaaaaaa........ immagino le porcate che ci possono essere dentro!

kazama-resurrection86
22-08-2008, 22:44
:doh: :doh: :doh: No no no no no e no! Insomma non ci vuole tanto a capirlo! Non è per malattia di fps! Non è perchè adoriamo Crysis!

Il tutto si incentra su Crysis, non come gioco, ma come benchmark. Questo perchè è l'unico gioco in grado di mettere in ginocchio tutte le schede video uscite finora, mentre invece, gli altri giochi, non impensieriscono minimamente neanche la generazione passata.

Capì?;)

io ho capito ma mi sa ke tu no:D :D :D vedendo su youtube 3gtx280(capìì all esordio 600 euro di skeda fai x3) in sli kon quad45nm a 4 gigi fare 35 masx45 fps.. sai ke significa??? e mi dici ke è un buon bench di skede a me sembra + un bench di merda

Sergio_Di_Rio
22-08-2008, 23:55
io ho capito ma mi sa ke tu no:D :D :D vedendo su youtube 3gtx280(capìì all esordio 600 euro di skeda fai x3) in sli kon quad45nm a 4 gigi fare 35 masx45 fps.. sai ke significa??? e mi dici ke è un buon bench di skede a me sembra + un bench di merda

Rilieggi il mio post, non ho scritto che è un buon bench, ho scritto invece che mette in ginocchio tutte le schede grafiche presenti finora sul mercato e ciò è inconfutabile. Tutti gli altri giochi possono essere giocati con dettagli al massimo, a risoluzioni elevate, già a partire dalla "vecchia 8800gtx". Potremmo dire che Crysis è, al momento, l'ultimo muro da abbattere.

Se in Crysis, come dici tu, l'SLI scala malissimo (come pure il CrossfireX), beh allora sai con chi prendertela. Ma certamente non con l'engine del gioco.

Comunque in tutte le review che ho letto l'SLI ed il 3-Way SLI andavano fortissimo (anche se ormai non so quanto sia possibile fidarsi) come ad esempio qui (http://www.driverheaven.net/reviews.php?reviewid=607&pageid=10).

kazama-resurrection86
23-08-2008, 00:19
Rilieggi il mio post, non ho scritto che è un buon bench, ho scritto invece che mette in ginocchio tutte le schede grafiche presenti finora sul mercato e ciò è inconfutabile. Tutti gli altri giochi possono essere giocati con dettagli al massimo, a risoluzioni elevate, già a partire dalla "vecchia 8800gtx". Potremmo dire che Crysis è, al momento, l'ultimo muro da abbattere.

Se in Crysis, come dici tu, l'SLI scala malissimo (come pure il CrossfireX), beh allora sai con chi prendertela. Ma certamente non con l'engine del gioco.

Comunque in tutte le review che ho letto l'SLI ed il 3-Way SLI andavano fortissimo (anche se ormai non so quanto sia possibile fidarsi) come ad esempio qui (http://www.driverheaven.net/reviews.php?reviewid=607&pageid=10).

niente da fare sei di coccio, io ho scritto solo una cosa elementare ossia ke 1800euro di sola vga fanno andare quell gioco una merda tutto qui fai tu delle considerazioni in merito al gioco.
con questo kiudo l' ot se no io e altri parleremo all infinito del gioco e dei soldi ke ha fatto spendere per hw per giocarci

nitro89
23-08-2008, 00:33
Ma se domani vi svegliaste e scopriste che Crysis non esiste?

Assalireste google di richieste: 'Crytek! Crytek!' il quale vi risponderebbe con un roboante 'La ricerca di 'Crytek' non ha prodotto risultati in nessun documento'.
Andreste alla ricerca del bel package cartonato finito da tempo in soffitta col bundle dei sogni 280gtx+Crysis, 4870X2+Crysis ma vi ritroverete davanti una confezione nuova, con una merda di Need for speed dentro. Noohh..
La scheda video senza adesivo di Crysis, il case griffato Crysis, persino i condom Crysis.., niente.
Bolidi di gpu acquistate col sudore del lavoro macinano poligono su poligono alle alte risoluzioni su qualsiasi motore grafico concepito. Nessuna incertezza, nessuna parvenza di rallentamento. La noia assale l'uomo insoddisfatto. E poi le domande.. una dopo l'altra:
ha senso vivere una vita serena davanti al computer?
sognerò ancora il lampeggio dei 15 fotogrammi di fraps?
perderò ancora le mie giornate alla ricerca del driver migliore?
domande che non ammettono risposta, domande di vita, di speranza.

Eppure quel sogno sembrava così reale..

Non si puo far altro che darti ragione :O :O :O ;)

Cooperdale
23-08-2008, 00:41
guarda io con vista64 con il q6600 @3,6ghz faccevo 5120 punti (cpu score)

giusto ad esempio un mio vecchio 3dm06 con ilq6600 @3,6ghz e la gts512mb occata...:http://img389.imageshack.us/img389/4121/corelcapture010003ar7.th.jpg (http://img389.imageshack.us/my.php?image=corelcapture010003ar7.jpg)

A 3,52 Ghz il q9450 fa un punteggio di 5250, contro i 5150 del q6600 a 3,6 ghz ;)

dunque un po di punti sul cpu score se li mangia,
Per vista bisongerebbe usare il vantage (dx10) ;)
comuqnue per me nel3dm06 sono importanti gli SM e HDR test...

Beh io col QX9770 a 4 Ghz (ma bus standard 400) faccio 6200 circa in xp.

M4R1|<
23-08-2008, 01:04
Rilieggi il mio post, non ho scritto che è un buon bench, ho scritto invece che mette in ginocchio tutte le schede grafiche presenti finora sul mercato e ciò è inconfutabile. Tutti gli altri giochi possono essere giocati con dettagli al massimo, a risoluzioni elevate, già a partire dalla "vecchia 8800gtx". Potremmo dire che Crysis è, al momento, l'ultimo muro da abbattere.

Se in Crysis, come dici tu, l'SLI scala malissimo (come pure il CrossfireX), beh allora sai con chi prendertela. Ma certamente non con l'engine del gioco.

Comunque in tutte le review che ho letto l'SLI ed il 3-Way SLI andavano fortissimo (anche se ormai non so quanto sia possibile fidarsi) come ad esempio qui (http://www.driverheaven.net/reviews.php?reviewid=607&pageid=10).

SLI e CrossFire se sono implementati bene dalle ottimizzazioni dell'Engine e dai driver scalano bene ;)
Il discorso Crysis è diverso, cioè il suo motore grafico nn scala come dovrebbe al crescere della potenza elaborativa della vga e nemmeno al crescere della Vram, questo per via che l'engine sfrutta solo un core e nn è ottimizzato.
quindi nn è ne un buon metro di misura ne un muro da superare (e nn solo l'hanno detto numerosi utenti MOLTO autorevoli e ben informati di questo ed altri forum ma anche l'admin Alessando B.)

cmq per il discorso "sai con chi prendertela" mi verrebbe da dirti che i programmatori Nvidia sono forse i migliori del loro campo e se fino ad oggi nn sono riusciti a fare nulla mi viene da pensare che loro più di così nn possano fare nulla :rolleyes:

jaiss69
23-08-2008, 08:36
tranquillo a me risulta pagata da ieri alle 12.13 e ancora non cambia, oggi ho chiamato, la scheda è stata assegnata stamattina al corriere il quale, non so perchè, gli da il tracking solamente il giorno dopo... praticamente teoricamente chiamando domani dovrebbero sapermi dire il tracking anche se in realtà l'hanno spedita oggi :mbe: :stordita:


Ba vacci a capire..
Io l'ho pagata giovedi alle 13 e ancora l'ordine risulta in lavorazione..
Se non mi arriva lunedi inizierò a romperele palle all'operatore chiamando..
Cm il prezzo non è male anche dato che si dice che lo manterra per un pò di mesi..
Dite che è un buon investimento e che possa durare? :rolleyes:

xage
23-08-2008, 08:59
:doh: :doh: :doh: No no no no no e no! Insomma non ci vuole tanto a capirlo! Non è per malattia di fps! Non è perchè adoriamo Crysis!

Il tutto si incentra su Crysis, non come gioco, ma come benchmark. Questo perchè è l'unico gioco in grado di mettere in ginocchio tutte le schede video uscite finora, mentre invece, gli altri giochi, non impensieriscono minimamente neanche la generazione passata.

Capì?;)

infatti e quello che ho detto io qualche pagina fa, oramai ce gente che cambierebbe anke una 4870 512mb X UNA 4870X2 SOLO ed esclusivamente x far girare crysis con qualche fps in piu e basta.
Poi la cosa che mi lascia al quanto perplesso e che si eseguano solo test test e test su crysis e nn se lo si gioca manco..... piu uno fa fps e piu e sborone :mc:

crash2k
23-08-2008, 10:04
Ba vacci a capire..
Io l'ho pagata giovedi alle 13 e ancora l'ordine risulta in lavorazione..
Se non mi arriva lunedi inizierò a romperele palle all'operatore chiamando..
Cm il prezzo non è male anche dato che si dice che lo manterra per un pò di mesi..
Dite che è un buon investimento e che possa durare? :rolleyes:


beh penso che sono schede questa o la GTX280 che potranno dare molto e a lungo, pensando che i giochi più pesanti ad oggi (crysis non lo conto) vanno da dio con queste schede penso ne passerà prima che possano essere davvero in difficoltà... soprattutto a risoluzioni alte ma non altissime..

PS stamattina mi è arrivato in e-mail il tracking... spero lunedì sia qui!

eXeS
23-08-2008, 10:17
SLI e CrossFire se sono implementati bene dalle ottimizzazioni dell'Engine e dai driver scalano bene ;)
Il discorso Crysis è diverso, cioè il suo motore grafico nn scala come dovrebbe al crescere della potenza elaborativa della vga e nemmeno al crescere della Vram, questo per via che l'engine sfrutta solo un core e nn è ottimizzato.
quindi nn è ne un buon metro di misura ne un muro da superare (e nn solo l'hanno detto numerosi utenti MOLTO autorevoli e ben informati di questo ed altri forum ma anche l'admin Alessando B.)

cmq per il discorso "sai con chi prendertela" mi verrebbe da dirti che i programmatori Nvidia sono forse i migliori del loro campo e se fino ad oggi nn sono riusciti a fare nulla mi viene da pensare che loro più di così nn possano fare nulla :rolleyes:
80-85% è nulla ?
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

gup133
23-08-2008, 11:16
Ragazzi c'è qualcosa che non mi convince nelle prestazione della mia 4870x2.
A Coh, sotto Vista64 a 1900x1200 con tutto al massimo e AA 4x, dx10, AF16x faccio:
83 fps
170,4 fps
40,1 fps

Drivers: Catalyst 8.8 Ufficiali

Sotto Xp, stesse impostazioni, ma ovviamente dx9:
60,7 fps
61,2 fps
38,7 fps

Drivers: Catalyst 8.8 Ufficiali

Non è (molto) poco?

Tra l'altro non riesco ad installare i Catalyst 8.54 (i beta), Vista non me li riconosce.
Altra domanda: come facci oa vedere le frequenze di core/memorie in modo dinamico? Non vorrei che il basso framerate fosse dipeso dal fatto che i profili di CCC fanno casino con le frequneze della scheda video.

ps: il mio sistema è: QX9650, XFX i790ultra, 4 gb ddr3 1600, Raport 150gb, Sapphire 4870x2, Tagan Piperock 1300w.

Grazie a tutti

Dobermann75
23-08-2008, 11:33
Rilieggi il mio post, non ho scritto che è un buon bench, ho scritto invece che mette in ginocchio tutte le schede grafiche presenti finora sul mercato e ciò è inconfutabile. Tutti gli altri giochi possono essere giocati con dettagli al massimo, a risoluzioni elevate, già a partire dalla "vecchia 8800gtx". Potremmo dire che Crysis è, al momento, l'ultimo muro da abbattere.

Se in Crysis, come dici tu, l'SLI scala malissimo (come pure il CrossfireX), beh allora sai con chi prendertela. Ma certamente non con l'engine del gioco.

Comunque in tutte le review che ho letto l'SLI ed il 3-Way SLI andavano fortissimo (anche se ormai non so quanto sia possibile fidarsi) come ad esempio qui (http://www.driverheaven.net/reviews.php?reviewid=607&pageid=10).
Verissimo, il bench di crysis va bene oper poter fare un confronto, così come qualunque bench basato su un gioco (Almeno si ha un visione più reale dell'esatto comportamento dell'hw, cosa che i 3dm non fanno)

Per quanto riguarda il discorso della 8800gtx che và ancora bene... beh
se si considerano monitor fino a 22" è abbastanza corretto il ragionamento, però se si considera l'intero panorama dei monitor in uso e in commercio cioè compresi quelli con diagnonale da 24" in su, la 8800gtx non c'è la fa fa, come non ce la fa la 9800gtx o la gtx260, dunque in termini assoluti non è corretto, considerando che molti si stanno spostando sui 24" per via della risoluzione maggiore e della posibilità di usare il monitor in fullhd, li per giocare senza compromessi minimo ti ci vuole una gx2 (che già con grid richiede di scendere un po con i dettagli per avere un game play fluido) o un cf di hd4870, 3870 o uno sli di 260... la gtx280 avendo molta potenzxa e 1gb di vram dovrebbe comportarsi discretamente.
In questi casi hanno senso schede con doppia gpu e una dotazione di vram alta per ogni gpu, infatti anche se non è un test che ha poi un riscontro molto reale con l'uso ludico della scheda, la 4870x2 a 1920x1200 arriva con filtri attivati tranquillamente a 18000punti di 3dm06, la 9800gx2 (la metto in rapporto perchè l'ho avuta fino a pochi giorni fà) arriva a 18000punti ma 1280x1024 senza filtri...
Secondo me al disotto dei 1680x1050 una scheda come la HD4870x2 o la gx2 e simili non hanno senso se non per fare punteggi assurdi al 3dm06 ma nell'uso reale rischiare di essere perennemente cpu limited e dunque non poter sfruttare poi la potenza effettiva della scheda video.

Dobermann75
23-08-2008, 11:35
Ragazzi c'è qualcosa che non mi convince nelle prestazione della mia 4870x2.
A Coh, sotto Vista64 a 1900x1200 con tutto al massimo e AA 4x, dx10, AF16x faccio:
83 fps
170,4 fps
40,1 fps

Drivers: Catalyst 8.8 Ufficiali

Sotto Xp, stesse impostazioni, ma ovviamente dx9:
60,7 fps
61,2 fps
38,7 fps

Drivers: Catalyst 8.8 Ufficiali

Non è (molto) poco?

Tra l'altro non riesco ad installare i Catalyst 8.54 (i beta), Vista non me li riconosce.
Altra domanda: come facci oa vedere le frequenze di core/memorie in modo dinamico? Non vorrei che il basso framerate fosse dipeso dal fatto che i profili di CCC fanno casino con le frequneze della scheda video.

ps: il mio sistema è: QX9650, XFX i790ultra, 4 gb ddr3 1600, Raport 150gb, Sapphire 4870x2, Tagan Piperock 1300w.

Grazie a tutti

bel sistema ;)
ma scusa l'ignoranza cos'è coh?

garbage
23-08-2008, 11:39
Se in Crysis, come dici tu, l'SLI scala malissimo (come pure il CrossfireX), beh allora sai con chi prendertela. Ma certamente non con l'engine del gioco.

Comunque in tutte le review che ho letto l'SLI ed il 3-Way SLI andavano fortissimo (anche se ormai non so quanto sia possibile fidarsi) come ad esempio qui (http://www.driverheaven.net/reviews.php?reviewid=607&pageid=10).


io con lo sli di 8800gts 512 avevo un netto migliramento nei frame non il doppio ma un buon 80-90% in piu in crysis cera, con 2 vga dx10 tt veryhigh nel test gpu facevo 32 frame di media 1680x1050 , con una vga facevo 17-18 frame di media :) (il problema era lo struttering del gioco in multiplayer cosi ho deciso di vendere tutto) cmq ora aspetto sta 4870x2 e vedro cm andra li :D

Massy84
23-08-2008, 11:47
rinnovo la domanda: per la 4850x2 ormai si deve aspettare settembre?

kazama-resurrection86
23-08-2008, 12:01
SLI e CrossFire se sono implementati bene dalle ottimizzazioni dell'Engine e dai driver scalano bene ;)
Il discorso Crysis è diverso, cioè il suo motore grafico nn scala come dovrebbe al crescere della potenza elaborativa della vga e nemmeno al crescere della Vram, questo per via che l'engine sfrutta solo un core e nn è ottimizzato.
quindi nn è ne un buon metro di misura ne un muro da superare (e nn solo l'hanno detto numerosi utenti MOLTO autorevoli e ben informati di questo ed altri forum ma anche l'admin Alessando B.)

cmq per il discorso "sai con chi prendertela" mi verrebbe da dirti che i programmatori Nvidia sono forse i migliori del loro campo e se fino ad oggi nn sono riusciti a fare nulla mi viene da pensare che loro più di così nn possano fare nulla :rolleyes:

quoto, tutto vero l' ai risposto in maniera + tecnica io + pratica, quel gioco penso ke nn deve essere proprio considerato kome metro di performance grafica

Foglia Morta
23-08-2008, 12:08
Ragazzi c'è qualcosa che non mi convince nelle prestazione della mia 4870x2.
A Coh, sotto Vista64 a 1900x1200 con tutto al massimo e AA 4x, dx10, AF16x faccio:
83 fps
170,4 fps
40,1 fps

Drivers: Catalyst 8.8 Ufficiali

Sotto Xp, stesse impostazioni, ma ovviamente dx9:
60,7 fps
61,2 fps
38,7 fps

Drivers: Catalyst 8.8 Ufficiali

Non è (molto) poco?

Tra l'altro non riesco ad installare i Catalyst 8.54 (i beta), Vista non me li riconosce.
Altra domanda: come facci oa vedere le frequenze di core/memorie in modo dinamico? Non vorrei che il basso framerate fosse dipeso dal fatto che i profili di CCC fanno casino con le frequneze della scheda video.

ps: il mio sistema è: QX9650, XFX i790ultra, 4 gb ddr3 1600, Raport 150gb, Sapphire 4870x2, Tagan Piperock 1300w.

Grazie a tutti

Come hardware.fr ( Vista ) , è un titolo nel quale le ATi non vanno bene

http://www.hardware.fr/medias/photos_news/00/23/IMG0023906.gif

bel sistema ;)
ma scusa l'ignoranza cos'è coh?

Company of heroes

dewwwxx84
23-08-2008, 12:10
io direi di cambiare gioco x i vari confronti... chi e' a favore????????????????????????????????????????:asd:

jaiss69
23-08-2008, 12:13
beh penso che sono schede questa o la GTX280 che potranno dare molto e a lungo, pensando che i giochi più pesanti ad oggi (crysis non lo conto) vanno da dio con queste schede penso ne passerà prima che possano essere davvero in difficoltà... soprattutto a risoluzioni alte ma non altissime..

PS stamattina mi è arrivato in e-mail il tracking... spero lunedì sia qui!

Pure a me è arrivato il tracking oggi.
Alla TNT risulta in lavorazione..
Spero arrivi Lunedi anche se abito in c**o al mondo :rolleyes:

Dobermann75
23-08-2008, 12:16
Company of heroes
se era con l'espansione in dx10 credo che vada meglio in Vista per quello... ma è solo una mia ipotesi ;)

Dobermann75
23-08-2008, 12:18
io direi di cambiare gioco x i vari confronti... chi e' a favore????????????????????????????????????????:asd:
avevo inziato con grid ma non se l'è cagato nessuno ad ecezione di exes :D
appena ho tempo provo anche con world in conflict... non vedo l'ora di provarla con il nuovo stalker clear sky :)

dewwwxx84
23-08-2008, 12:29
avevo inziato con grid ma non se l'è cagato nessuno ad ecezione di exes :D
appena ho tempo provo anche con world in conflict... non vedo l'ora di provarla con il nuovo stalker clear sky :)

bisognerebbe farlo co un gioco che abbiano tutti o quasi:D

Superdm83
23-08-2008, 12:38
bisognerebbe farlo co un gioco che abbiano tutti o quasi:D

solitario può andare bene ????? :D :D :D :D

Syphon
23-08-2008, 12:41
quindi a quanto leggo in pratica è inutile che mi prenda una 4870x2 avendo un monitor 20" da max risoluzione 1680x1050?

Mi devo prendere un 24"?:D

magnusll
23-08-2008, 12:44
Rilieggi il mio post, non ho scritto che è un buon bench, ho scritto invece che mette in ginocchio tutte le schede grafiche presenti finora sul mercato e ciò è inconfutabile. Tutti gli altri giochi possono essere giocati con dettagli al massimo, a risoluzioni elevate, già a partire dalla "vecchia 8800gtx". Potremmo dire che Crysis è, al momento, l'ultimo muro da abbattere.


Non sono d' accordo con questa logica. E' ormai noto e arcinoto che il motore grafico di Crysis e' stato scritto a cazzo di cane, basti dire che non scala ne' con i core delle CPU ne con le multi-GPU. Se tu lo utilizzi come benchmark non stai misurando una ipotetica "efficienza assoluta" della scheda; stai misurando piuttosto di quanto venga castrata la potenzialita' massima della scheda stessa nel momento in cui viene sottosfruttata.


Facciamo un esperimento teorico: io sviluppo un giochetto qualsiasi e dentro il codice del loop principale ci scrivo questa semplice istruzioncella:

Sleep(1000)

dove 1000 e' espresso in millisecondi. Ergo, ad ogni giro il processo va a dormire per un secondo, e lo schedulatore di windows lo risveglia il secondo successivo.
Per ovvie ragioni, facendo al massimo un loop al secondo il gioco girera' a 1 fps, qualunque sistema si stia utilizzando (in realta' non e' cosi' perche' piu' frame potrebbero essere calcolati in multithreading ma semplifichiamo).

Ti pare buono come benchmark? Perche' ragionando come fai tu, dovrebbe essere perfetto: mette in ginocchio tutte le schede passate, presenti e future. Se aspetti che esca una scheda che fa 50 fps con questo ipotetico gioco mi sa che l' attesa sara' lunga....

Andrea deluxe
23-08-2008, 12:46
quindi a quanto leggo in pratica è inutile che mi prenda una 4870x2 avendo un monitor 20" da max risoluzione 1680x1050?

Mi devo prendere un 24"?:D

tieniti stretto il 20", altrimenti poi spenderai cosi' tanti soldi per giocare che rimpiangerai di aver preso un monitor grande!


la cosa piu' brutta e' che e' impossibile tornare indietro con i monitor!


la 4870x2 non e' sprecata con nessun monitor, o forse si un 15"....

Syphon
23-08-2008, 12:54
tieniti stretto il 20", altrimenti poi spenderai cosi' tanti soldi per giocare che rimpiangerai di aver preso un monitor grande!


la cosa piu' brutta e' che e' impossibile tornare indietro con i monitor!


la 4870x2 non e' sprecata con nessun monitor, o forse si un 15"....

Al massimo se mi gira..mi prendo un gemello e faccio un dual monitor...:D

Andrea deluxe
23-08-2008, 13:04
Al massimo se mi gira..mi prendo un gemello e faccio un dual monitor...:D

al limite fatti un buon 22", ma evita il 24"

ti succhia il sangue senza pieta':D

michelgaetano
23-08-2008, 13:09
al limite fatti un buon 22", ma evita il 24"

ti succhia il sangue senza pieta':D

minchia, detto così fa paura :D :D :sofico:

astaris
23-08-2008, 13:17
Cmq è disponibile RBE (Radeon Bios Editor) 1.14 con pieno supporto per la x2. In particolare è ora possibile modificare il profilo della ventola per la x2, che utilizza un controller diverso dalle 48xx single gpu.

Enochian
23-08-2008, 13:27
al limite fatti un buon 22", ma evita il 24"

ti succhia il sangue senza pieta':D

Eddai esagerato che sei...
Io ho un 24" con un crossfire di 4870 e vado alla grande, in attesa di fare le seguenti sostituzioni entro un anno:

- 24 --> 28 o 30 pollici
- 2x HD4870 --> 2x 4870x2
- E8500 --> Quadcore

sagge90
23-08-2008, 13:36
Uhm.. detto così mi faccio la 4870x2 e tengo il mio 19" :sofico: Poi appena i $ ci sono, 22 o 24"!:rolleyes:

Andrea deluxe
23-08-2008, 13:37
Eddai esagerato che sei...
Io ho un 24" con un crossfire di 4870 e vado alla grande, in attesa di fare le seguenti sostituzioni entro un anno:

- 24 --> 28 o 30 pollici
- 2x HD4870 --> 2x 4870x2
- E8500 --> Quadcore

io ho un 27" e scoppio...

se tenevo un 22" crysis mi volava....

crash2k
23-08-2008, 13:38
con un 24 andava già bene il cross di 4850 che avevo fino a questa settimana che l'ho cambiato perchè avevo già preventivato la temporaneità della cosa in vista della 4870x2 e anche per una questione di praticità vista la disposizione nel mio case... non impazzisco per le due schede.

quindi per un 24" imho la 4870x2 andrà benissimo e sarà molto longeva. Credo valga lo stesso discorso per i 28-30". Un cross di 4870x2 o un 3way Sli di GTX280 imho, al momento e per un bel pezzo credo, saranno mooolto sprecati.

PS e non parliamo solo di crysis, facciamo un discorso generico.

@sagge io fossi in te farei il discorso contrario, mi prenderei prima il 22-24" e poi passerei alla 4870x2 (che magari intanto scende di prezzo). Te lo dico per esperienza mia che sono passato dalla tua 8800gts ad una 4850 con il 19"... non ho notato differenza sostanziale, anzi, ero molto deluso. Poi è arrivato il 24" e ho capito che era tutta un'altra cosa... e parlo solo di una 4850... senza un monitor adatto a sprigionare tutta la potenza (o gran parte diciamo va) della scheda video, è come se non la cambiassi.

Enochian
23-08-2008, 13:41
Bel monitor, con quella configurazione avrei preso uno sli di gtx280 per andare alla grande...

Massy84
23-08-2008, 13:44
la 4870x2 non e' sprecata con nessun monitor, o forse si un 15"....

dubito fortemente sia consigliata con 1280*1024 o 1440*900 :rolleyes: :Prrr:

sagge90
23-08-2008, 13:53
Raga 390€ dite che sono tanti o si vedono all'orizzonte cali di prezzo?

michelgaetano
23-08-2008, 13:59
Eddai esagerato che sei...
Io ho un 24" con un crossfire di 4870 e vado alla grande, in attesa di fare le seguenti sostituzioni entro un anno:

- 24 --> 28 o 30 pollici
- 2x HD4870 --> 2x 4870x2
- E8500 --> Quadcore

roba da niente eh :asd:

Syphon
23-08-2008, 14:58
azz ma vedendo in giro ancora i 24" costicchiano eh??

Sti pc sono troppo mangiasoldi!:D Io al momento mi tengo ancora il mio beneamato 205bw 20.1" da 1680x1050..

al momento l'unica cosa che mi trattiene dal prendere la scheda è.."Ma ora con quale gioco posso sfruttarla!?!"

Attualemente tutti i giochi che mi piacevano li ho già giocati..se devo tenerla ferma o solo per fare bench..aspetto ancora un altro pochetto..poi nn so...:confused:

Massy84
23-08-2008, 15:01
azz ma vedendo in giro ancora i 24" costicchiano eh??

Sti pc sono troppo mangiasoldi!:D Io al momento mi tengo ancora il mio beneamato 205bw 20.1" da 1680x1050..

al momento l'unica cosa che mi trattiene dal prendere la scheda è.."Ma ora con quale gioco posso sfruttarla!?!"

Attualemente tutti i giochi che mi piacevano li ho già giocati..se devo tenerla ferma o solo per fare bench..aspetto ancora un altro pochetto..poi nn so...:confused:

al di là di tutto e di discorso già fatti...questa X2 esce in un momento sbagliato dove non ci sono titoli "giusti" e se è vero che già a gennaio esce RV870 succederà la stessa cosa successa con 3870x2 cioè che basta una scheda di nuova generazione e di fascia medio-alta per batterla...se poi uno vuole provarla, gli piace ecc ecc fa più che bene a comprarla ;) ma a livello di longevità ho i miei dubbi

okorop
23-08-2008, 15:02
azz ma vedendo in giro ancora i 24" costicchiano eh??

Sti pc sono troppo mangiasoldi!:D Io al momento mi tengo ancora il mio beneamato 205bw 20.1" da 1680x1050..

al momento l'unica cosa che mi trattiene dal prendere la scheda è.."Ma ora con quale gioco posso sfruttarla!?!"

Attualemente tutti i giochi che mi piacevano li ho già giocati..se devo tenerla ferma o solo per fare bench..aspetto ancora un altro pochetto..poi nn so...:confused:

non contando che alzando sempre piu la risoluzione uno deve cambiare vga ogni 6 mesi con l'altra top di gamma senno con i giochi nuovi si deve abbassarla il che non è troppo bello

Sergio_Di_Rio
23-08-2008, 15:12
niente da fare sei di coccio, io ho scritto solo una cosa elementare ossia ke 1800euro di sola vga fanno andare quell gioco una merda tutto qui fai tu delle considerazioni in merito al gioco.
con questo kiudo l' ot se no io e altri parleremo all infinito del gioco e dei soldi ke ha fatto spendere per hw per giocarci

Sei scostumato e poco rispettoso, non è questo il modo migliore per rivolgersi ad un altro utente. Qui non si parla soldi o del fatto che spendere 1800€ per riuscire a malapena a godersi Crysis sia una pazzia da Sceicco (e su questo non c'è dubbio). Si parla di prestazioni e l'unico gioco nel quale tutte le vga sono in difficoltà (vuoi per la "scelleratezza" dei programmatori Crytek e/o "l'inettitudine" degli ingegneri nVidia ed Ati) è proprio crysis.

Insomma non mi sembra una cosa particolarmente difficile:

esce una nuova scheda --> testo la nuova scheda, principalmente (ma non solo), con i giochi che hanno messo in difficoltà la generazione precedente (per poter effetture dei paragoni e misurare l'eventuale incremento prestazionale--> al momento l'unico gioco Crysis. Al momento.

E' ovvio poi che giochi "piuma" come DMC4, COD4, UT3, GRID, che girano alla grande sulla vecchia generazione, non potranno che andare ancora meglio su questi nuovi mostri.

I benchmark di questi giochi, quindi, non sono così interessanti, dato che il risultato è scontato.

SLI e CrossFire se sono implementati bene dalle ottimizzazioni dell'Engine e dai driver scalano bene ;)
Il discorso Crysis è diverso, cioè il suo motore grafico nn scala come dovrebbe al crescere della potenza elaborativa della vga e nemmeno al crescere della Vram, questo per via che l'engine sfrutta solo un core e nn è ottimizzato.
quindi nn è ne un buon metro di misura ne un muro da superare (e nn solo l'hanno detto numerosi utenti MOLTO autorevoli e ben informati di questo ed altri forum ma anche l'admin Alessando B.)

cmq per il discorso "sai con chi prendertela" mi verrebbe da dirti che i programmatori Nvidia sono forse i migliori del loro campo e se fino ad oggi nn sono riusciti a fare nulla mi viene da pensare che loro più di così nn possano fare nulla :rolleyes:

No, se dici questo, significa che non hai ben presente come funzionano i driver e come dialogano con il sistema. Gran parte del lavoro la fanno i driver. Esempio facile facile: secondo te perchè le prestazioni delle vga in crysis sono aumentate man mano con l'uscita di nuovi drivers? La risposta è semplice e sono sicuro che puoi dartela da solo.

Quando scrivi: "..questo per via che l'engine sfrutta solo un core e nn è ottimizzato..", commetti un errore.

Se intedi core della CPU, non è vero, il CryEngine sfutta e supporta appieno i dual core (questo non significa che se premi i tastini ctrl+alt+canc devi per forza vedere i 2 core occupati al 100%). Se ti riferisci invece a sistemi multi-GPU, commetti lo stesso un errore, perchè sono i driver sli\crossfire che si occupano, in gran parte, di questo aspetto.

Crysis resta un muro da scavalcare. Non importa se chi dice il contrario è amministratore, oppure è un utente più o meno autorevole di un forum più o meno autorevole, sono i fatti quelli che contano. I fatti sono che Crysis è l'unico titolo capace di mettere in ginocchio tutte le vga presenti sul mercato.

In ultimo, non critico assolutamente il supporto driver nVidia (al momento sono i migliori sotto questo aspetto), anzi dai vari benchmark presenti nelle recensioni sembra che l'SLI ed il 3-waySLI funzionino benissimo. Era il nostro amico kazama-resurrection86 che lamentava un cattivo funzionamento del 3-waySLI additandolo unicamente al Cryengine2 definendolo di "merda", così mi sono permesso di instradarlo verso i veri "colpevoli".

Verissimo, il bench di crysis va bene oper poter fare un confronto, così come qualunque bench basato su un gioco (Almeno si ha un visione più reale dell'esatto comportamento dell'hw, cosa che i 3dm non fanno)

Per quanto riguarda il discorso della 8800gtx che và ancora bene... beh
se si considerano monitor fino a 22" è abbastanza corretto il ragionamento, però se si considera l'intero panorama dei monitor in uso e in commercio cioè compresi quelli con diagnonale da 24" in su, la 8800gtx non c'è la fa fa, come non ce la fa la 9800gtx o la gtx260, dunque in termini assoluti non è corretto, considerando che molti si stanno spostando sui 24" per via della risoluzione maggiore e della posibilità di usare il monitor in fullhd, li per giocare senza compromessi minimo ti ci vuole una gx2 (che già con grid richiede di scendere un po con i dettagli per avere un game play fluido) o un cf di hd4870, 3870 o uno sli di 260... la gtx280 avendo molta potenzxa e 1gb di vram dovrebbe comportarsi discretamente.
In questi casi hanno senso schede con doppia gpu e una dotazione di vram alta per ogni gpu, infatti anche se non è un test che ha poi un riscontro molto reale con l'uso ludico della scheda, la 4870x2 a 1920x1200 arriva con filtri attivati tranquillamente a 18000punti di 3dm06, la 9800gx2 (la metto in rapporto perchè l'ho avuta fino a pochi giorni fà) arriva a 18000punti ma 1280x1024 senza filtri...
Secondo me al disotto dei 1680x1050 una scheda come la HD4870x2 o la gx2 e simili non hanno senso se non per fare punteggi assurdi al 3dm06 ma nell'uso reale rischiare di essere perennemente cpu limited e dunque non poter sfruttare poi la potenza effettiva della scheda video.

Dobermann scusa, ma avendolo scritto precedentemente (vedi post precedenti) non pensavo ci fosse bisogno di ripeterlo. Quindi pongo rimedio alla mia mancanza: la 8800gtx va benissimo con tutti i giochi, con filtri attivati, non oltre la risoluzione di 1680x1050, in alcuni casi anche 1920x1200.

;)
quoto, tutto vero l' ai risposto in maniera + tecnica io + pratica, quel gioco penso ke nn deve essere proprio considerato kome metro di performance grafica

No non ci siamo. Continui a ripetere lo stesso errore. Facciamo così: ti ricordi quando uscì FarCry?


Poi la cosa che mi lascia al quanto perplesso e che si eseguano solo test test e test su crysis e nn se lo si gioca manco..... piu uno fa fps e piu e sborone :mc:

No. Quante volte devo ripeterlo? Il benchmark serve a misurare le prestazioni "reali" di una Vga. Ci si accanisce con crysis perchè è l'unico in grado di mettere in crisi (scusate il gioco di parole) tutte le attuali vga.

Non sono d' accordo con questa logica. E' ormai noto e arcinoto che il motore grafico di Crysis e' stato scritto a cazzo di cane, basti dire che non scala ne' con i core delle CPU ne con le multi-GPU. Se tu lo utilizzi come benchmark non stai misurando una ipotetica "efficienza assoluta" della scheda; stai misurando piuttosto di quanto venga castrata la potenzialita' massima della scheda stessa nel momento in cui viene sottosfruttata.


Facciamo un esperimento teorico: io sviluppo un giochetto qualsiasi e dentro il codice del loop principale ci scrivo questa semplice istruzioncella:

Sleep(1000)

dove 1000 e' espresso in millisecondi. Ergo, ad ogni giro il processo va a dormire per un secondo, e lo schedulatore di windows lo risveglia il secondo successivo.
Per ovvie ragioni, facendo al massimo un loop al secondo il gioco girera' a 1 fps, qualunque sistema si stia utilizzando (in realta' non e' cosi' perche' piu' frame potrebbero essere calcolati in multithreading ma semplifichiamo).

Ti pare buono come benchmark? Perche' ragionando come fai tu, dovrebbe essere perfetto: mette in ginocchio tutte le schede passate, presenti e future. Se aspetti che esca una scheda che fa 50 fps con questo ipotetico gioco mi sa che l' attesa sara' lunga....

No, non sono d'accordo. Hai avuto modo di leggere ed analizzare le righe di codice di crysis? Smettiamola di dire che è stato scritto "a cazzo di cane" (senza portare valide argomentazioni), sicuramente il codice avrà delle pecche, ma nessun software è perfetto. Il tuo esempio è fuori luogo, il motore di Crysis è molto complesso ma sicuramente non è stato scritto per girare lentamente. Anzi il motore è caratterizzato da un'elevata scalabilità e modularità, possono essere cambiate una grande quantità di impostazioni grafiche. Giocatelo con dettagli "medium" o "low" e vedrete che andrà una bomba, pure su hardware datato.

Il gioco, già con dettagli High, ha una qualità grafica mai vista, questo è indiscutibile. Porta inoltre moltissime innovazioni sotto il punto di vista grafico, ma anche nel comparto gameplay.

Syphon
23-08-2008, 15:37
non contando che alzando sempre piu la risoluzione uno deve cambiare vga ogni 6 mesi con l'altra top di gamma senno con i giochi nuovi si deve abbassarla il che non è troppo bello

Appunto..la mia strategia potrebbe essere quella di dar via la mia attuale 8800gtx (che mi ha dato ottime soddisfazioni) solo e semplicemente a fronte di una sua eccessiva svalutazione..

Prendere una vga tampone..(proprio di bassissimo livello che mi permetta quindi di accendere il pc..) e aspettare ancora un pò prima di prendere la 4870x2..

Non sono il tipo che aspetta sempre l'ultima uscita..anche perchè in questo campo,come tutti sapete, aspettare..è veramente molto relativo..cosi come le continue proroghe d'acquisto sono controproducenti la maggiorparte delle volte.

GabryICE
23-08-2008, 15:39
E' ovvio poi che giochi "piuma" come DMC4, COD4, UT3, GRID, che girano alla grande sulla vecchia generazione, non potranno che andare ancora meglio su questi nuovi mostri.

I benchmark di questi giochi, quindi, non sono così interessanti, dato che il risultato è scontato.



No, se dici questo, significa che non hai ben presente come funzionano i driver e come dialogano con il sistema. Gran parte del lavoro la fanno i driver. Esempio facile facile: secondo te perchè le prestazioni delle vga in crysis sono aumentate man mano con l'uscita di nuovi drivers? La risposta è semplice e sono sicuro che puoi dartela da solo.

Quando scrivi: "..questo per via che l'engine sfrutta solo un core e nn è ottimizzato..", commetti un errore.

Se intedi core della CPU, non è vero, il CryEngine sfutta e supporta appieno i dual core (questo non significa che se premi i tastini ctrl+alt+canc devi per forza vedere i 2 core occupati al 100%). Se ti riferisci invece a sistemi multi-GPU, commetti lo stesso un errore, perchè sono i driver sli\crossfire che si occupano, in gran parte, di questo aspetto.


In ultimo, non critico assolutamente il supporto driver nVidia (al momento sono i migliori sotto questo aspetto), anzi dai vari benchmark presenti nelle recensioni sembra che l'SLI ed il 3-waySLI funzionino benissimo. Era il nostro amico kazama-resurrection86 che lamentava un cattivo funzionamento del 3-waySLI additandolo unicamente al Cryengine2 definendolo di "merda", così mi sono permesso di instradarlo verso i veri "colpevoli".



No. Quante volte devo ripeterlo? Il benchmark serve a misurare le prestazioni "reali" di una Vga. Ci si accanisce con crysis perchè è l'unico in grado di mettere in crisi (scusate il gioco di parole) tutte le attuali vga.


No, non sono d'accordo. Hai avuto modo di leggere ed analizzare le righe di codice di crysis? Smettiamola di dire che è stato scritto "a cazzo di cane" (senza portare valide argomentazioni), sicuramente il codice avrà delle pecche, ma nessun software è perfetto. Il tuo esempio è fuori luogo, il motore di Crysis è molto complesso ma sicuramente non è stato scritto per girare lentamente. Anzi il motore è caratterizzato da un'elevata scalabilità e modularità, possono essere cambiate una grande quantità di impostazioni grafiche. Giocatelo con dettagli "medium" o "low" e vedrete che andrà una bomba, pure su hardware datato.

Il gioco, già con dettagli High, ha una qualità grafica mai vista, questo è indiscutibile. Porta inoltre moltissime innovazioni sotto il punto di vista grafico, ma anche nel comparto gameplay.


Quoto le parti che mi sono piaciute di più comunque sono totalmente d'accordo con il tuo discorso nella sua interezza!!

Grande :D ...devo dire che il tuo è il modo corretto di vedere e giudicare in maniera analitica i fatti senza esporre valutazioni compromesse dalla scelta hardware che uno ha fatto..cosa che invece mi sembra venga fatta da molti altri utenti. ;)

Amon 83
23-08-2008, 15:51
Domanda:
siete riusciti ad oc la scheda con il ccc almeno a portarla a 800 - 1000mhz o no?

matthi87
23-08-2008, 16:21
Il Core ad 800 mi va bene ma le memorie oltre i 980 mi fanno artefatti

NvidiaMen
23-08-2008, 16:48
No, se dici questo, significa che non hai ben presente come funzionano i driver e come dialogano con il sistema. Gran parte del lavoro la fanno i driver. Esempio facile facile: secondo te perchè le prestazioni delle vga in crysis sono aumentate man mano con l'uscita di nuovi drivers? La risposta è semplice e sono sicuro che puoi dartela da solo.

Quando scrivi: "..questo per via che l'engine sfrutta solo un core e nn è ottimizzato..", commetti un errore.

Se intedi core della CPU, non è vero, il CryEngine sfutta e supporta appieno i dual core (questo non significa che se premi i tastini ctrl+alt+canc devi per forza vedere i 2 core occupati al 100%). Se ti riferisci invece a sistemi multi-GPU, commetti lo stesso un errore, perchè sono i driver sli\crossfire che si occupano, in gran parte, di questo aspetto.

Crysis resta un muro da scavalcare. Non importa se chi dice il contrario è amministratore, oppure è un utente più o meno autorevole di un forum più o meno autorevole, sono i fatti quelli che contano. I fatti sono che Crysis è l'unico titolo capace di mettere in ginocchio tutte le vga presenti sul mercato.
...
In ultimo, non critico assolutamente il supporto driver nVidia (al momento sono i migliori sotto questo aspetto), anzi dai vari benchmark presenti nelle recensioni sembra che l'SLI ed il 3-waySLI funzionino benissimo. Era il nostro amico kazama-resurrection86 che lamentava un cattivo funzionamento del 3-waySLI additandolo unicamente al Cryengine2 definendolo di "merda", così mi sono permesso di instradarlo verso i veri "colpevoli".
...
No, non sono d'accordo. Hai avuto modo di leggere ed analizzare le righe di codice di crysis? Smettiamola di dire che è stato scritto "a cazzo di cane" (senza portare valide argomentazioni), sicuramente il codice avrà delle pecche, ma nessun software è perfetto. Il tuo esempio è fuori luogo, il motore di Crysis è molto complesso ma sicuramente non è stato scritto per girare lentamente. Anzi il motore è caratterizzato da un'elevata scalabilità e modularità, possono essere cambiate una grande quantità di impostazioni grafiche. Giocatelo con dettagli "medium" o "low" e vedrete che andrà una bomba, pure su hardware datato.

Il gioco, già con dettagli High, ha una qualità grafica mai vista, questo è indiscutibile. Porta inoltre moltissime innovazioni sotto il punto di vista grafico, ma anche nel comparto gameplay.

Condivido con te la tesi per la quale nessun game come Crysis produca valori FPS tanto bassi anche su sistemi di fascia alta (2,4 TeraFlops lato sola GPU in riferimento ad una sola 4870x2...) e possa di conseguenza essere considerato il metro di paragone più adatto per confrontare le schede video di ultima uscita (a parità di disottimizzazione...).
E' però vero ed assodato che il codice di Crysis sia scritto "evitando" la parallelizzazione dei thread, tant'è vero che con un dual core sono impegnate le due unità solo al 50% (stessa cosa per un quad core che si contraddistinguerà dall'avere le quattro unità elaborative lavoranti a metà del loro limite computazionale).
A parziale (vedremo poi perchè...) giustificazione di una così apparente quanto scellerata metodologia programmazionale occorre sottolineare che le DX10 (e DX10.1) non hanno introdotto a livello di API procedure software utili ad ottimizzare gli applicativi attraverso un codice multithreading in grado di distribuire il calcolo computazionale ai vari cores. In game ciò andrebbe in aiuto nei frangenti nei quali la complessità (grafica e soprattutto fisica) sale di un certo livello (FPS minimi di Crysis nelle scene più coincitate docét). Si è rimandato il tutto a DX11, come sappiamo tutti dai comunicati ufficiali Microsoft, per cui per avere novità da questo punto di vista occorrerà aspettare.
La giustificazione è però, come anticipato inizialmente, parziale perchè se dal lato rasterizzazione il CryEngine 2 si affida alle API, dal lato phisyc si appoggia ad un motore fisico proprietario interno (con procedure che non utilizzano nè l'Havok FX che sfrutta a dovere il multicores nè le istruzioni AGEIA che da oggi sfrutteranno anche le GPU nVidia) e che, se fossero state ottimizzate al meglio, avrebbero potuto utilizzare la metà (50%) delle risorse computazionali che come detto prima non vengono sfruttate dalle API grafiche. Oggi Crysis nei multicores lascia di fatto inutilizzata il 50% della potenza elaborativa e la restante metà è a sua volta suddivisa tra rasterizzazione e fisica.
E' proprio su questo fronte che la programmazione di Crysis Warhead si muoverà, (si cercherà di utilizzare al meglio la restante aliquota computazionale di circa il 50% ad oggi non sfruttata lasciando il resto per gestire l'AI e l'overhead (http://www.hwupgrade.it/articoli/skvideo/1512/directx-10-uno-sguardo-al-futuro-delle-gpu_3.html) nella generazione degli oggetti 3d) in attesa che l'avvento delle DX11 possa risolvere la parallelizzazione ed introdurre anche uno standard nelle istruzioni di fisica su GPU.

kazama-resurrection86
23-08-2008, 16:48
Sei scostumato e poco rispettoso, non è questo il modo migliore per rivolgersi ad un altro utente. Qui non si parla soldi o del fatto che spendere 1800€ per riuscire a malapena a godersi Crysis sia una pazzia da Sceicco (e su questo non c'è dubbio). Si parla di prestazioni e l'unico gioco nel quale tutte le vga sono in difficoltà (vuoi per la "scelleratezza" dei programmatori Crytek e/o "l'inettitudine" degli ingegneri nVidia ed Ati) è proprio crysis.

Insomma non mi sembra una cosa particolarmente difficile:

esce una nuova scheda --> testo la nuova scheda, principalmente (ma non solo), con i giochi che hanno messo in difficoltà la generazione precedente (per poter effetture dei paragoni e misurare l'eventuale incremento prestazionale--> al momento l'unico gioco Crysis. Al momento.

E' ovvio poi che giochi "piuma" come DMC4, COD4, UT3, GRID, che girano alla grande sulla vecchia generazione, non potranno che andare ancora meglio su questi nuovi mostri.

I benchmark di questi giochi, quindi, non sono così interessanti, dato che il risultato è scontato.



No, se dici questo, significa che non hai ben presente come funzionano i driver e come dialogano con il sistema. Gran parte del lavoro la fanno i driver. Esempio facile facile: secondo te perchè le prestazioni delle vga in crysis sono aumentate man mano con l'uscita di nuovi drivers? La risposta è semplice e sono sicuro che puoi dartela da solo.

Quando scrivi: "..questo per via che l'engine sfrutta solo un core e nn è ottimizzato..", commetti un errore.

Se intedi core della CPU, non è vero, il CryEngine sfutta e supporta appieno i dual core (questo non significa che se premi i tastini ctrl+alt+canc devi per forza vedere i 2 core occupati al 100%). Se ti riferisci invece a sistemi multi-GPU, commetti lo stesso un errore, perchè sono i driver sli\crossfire che si occupano, in gran parte, di questo aspetto.

Crysis resta un muro da scavalcare. Non importa se chi dice il contrario è amministratore, oppure è un utente più o meno autorevole di un forum più o meno autorevole, sono i fatti quelli che contano. I fatti sono che Crysis è l'unico titolo capace di mettere in ginocchio tutte le vga presenti sul mercato.

In ultimo, non critico assolutamente il supporto driver nVidia (al momento sono i migliori sotto questo aspetto), anzi dai vari benchmark presenti nelle recensioni sembra che l'SLI ed il 3-waySLI funzionino benissimo. Era il nostro amico kazama-resurrection86 che lamentava un cattivo funzionamento del 3-waySLI additandolo unicamente al Cryengine2 definendolo di "merda", così mi sono permesso di instradarlo verso i veri "colpevoli".



Dobermann scusa, ma avendolo scritto precedentemente (vedi post precedenti) non pensavo ci fosse bisogno di ripeterlo. Quindi pongo rimedio alla mia mancanza: la 8800gtx va benissimo con tutti i giochi, con filtri attivati, non oltre la risoluzione di 1680x1050, in alcuni casi anche 1920x1200.

;)


No non ci siamo. Continui a ripetere lo stesso errore. Facciamo così: ti ricordi quando uscì FarCry?



No. Quante volte devo ripeterlo? Il benchmark serve a misurare le prestazioni "reali" di una Vga. Ci si accanisce con crysis perchè è l'unico in grado di mettere in crisi (scusate il gioco di parole) tutte le attuali vga.



No, non sono d'accordo. Hai avuto modo di leggere ed analizzare le righe di codice di crysis? Smettiamola di dire che è stato scritto "a cazzo di cane" (senza portare valide argomentazioni), sicuramente il codice avrà delle pecche, ma nessun software è perfetto. Il tuo esempio è fuori luogo, il motore di Crysis è molto complesso ma sicuramente non è stato scritto per girare lentamente. Anzi il motore è caratterizzato da un'elevata scalabilità e modularità, possono essere cambiate una grande quantità di impostazioni grafiche. Giocatelo con dettagli "medium" o "low" e vedrete che andrà una bomba, pure su hardware datato.

Il gioco, già con dettagli High, ha una qualità grafica mai vista, questo è indiscutibile. Porta inoltre moltissime innovazioni sotto il punto di vista grafico, ma anche nel comparto gameplay.

madonna mia!!! adesso sono pure scostumato e poco rispettoso per aver fatto un affermazione in merito al gioco, azz:doh: :doh: lascia perdere... eppure quasi tutti te l anno detto ke nn bisogna prendere crysis kome metro di performance spiegandotelo in tutti i modi..e tu ribatti, ribatti fino alla nausea dicendo ke commettiamo errori ma te lo sei kiesto o no se sei un bug di hw???

DarkNiko
23-08-2008, 17:17
Ciao a tutti. Ai fortunati possessori della scheda in oggetto, chiedo cortesemente questo (mi auguro di ricevere risposte obiettive).

1) Scalda molto la scheda ?

2) Regolando la ventola su un 60% in idle e su un 80% nei giochi è parecchio rumorosa ?

3) Assorbe parecchio di potenza ? E se sì, quanto più o meno ?

4) Il supporto drivers è all'altezza o ci sono problemi ???

So che sono domande quasi scontate, però meglio avere le cose certe e chiare. Grazie a chi risponderà. ;)

matthi87
23-08-2008, 18:00
Ciao a tutti. Ai fortunati possessori della scheda in oggetto, chiedo cortesemente questo (mi auguro di ricevere risposte obiettive).

1) Scalda molto la scheda ?

2) Regolando la ventola su un 60% in idle e su un 80% nei giochi è parecchio rumorosa ?

3) Assorbe parecchio di potenza ? E se sì, quanto più o meno ?

4) Il supporto drivers è all'altezza o ci sono problemi ???

So che sono domande quasi scontate, però meglio avere le cose certe e chiare. Grazie a chi risponderà. ;)

1) Si quando gioco è sempre sui 91-92 gradi

2) Se la metti a 60 in idle vai in ricovero dopo 2 minuti. In idle oltre i 40 è dura.... Ad 80 ti prende il volo il case, a 100 ti dico solo che mi sono spaventato :)

3) Assorbe circa 290Watt

4) io non ho riscontrato problemi con nessun gioco

okorop
23-08-2008, 18:06
domanda: la ventola viene controllata da att oppure no? come sono le temperature? e i driver la vedono come un crossfire giusto?
a 1680x1050 qualcuno l'ha provata? come si trova?

Dobermann75
23-08-2008, 18:13
Dobermann scusa, ma avendolo scritto precedentemente (vedi post precedenti) non pensavo ci fosse bisogno di ripeterlo. Quindi pongo rimedio alla mia mancanza: la 8800gtx va benissimo con tutti i giochi, con filtri attivati, non oltre la risoluzione di 1680x1050, in alcuni casi anche 1920x1200.

;)
.
chiedo venia :D non avevo seguito bene la discussione ;)

p.s: ma sei proprio il famoso Sergio di Rio, posso dire di consocerti alle ragazze come nella pubblicità :sofico:
ciao

Dobermann75
23-08-2008, 18:15
Il Core ad 800 mi va bene ma le memorie oltre i 980 mi fanno artefatti

cosa hai usato:
rivatuner o atytool ?
che catalyst hai installato?
Grazie

Dobermann75
23-08-2008, 18:17
1) Si quando gioco è sempre sui 91-92 gradi

2) Se la metti a 60 in idle vai in ricovero dopo 2 minuti. In idle oltre i 40 è dura.... Ad 80 ti prende il volo il case, a 100 ti dico solo che mi sono spaventato :)

3) Assorbe circa 290Watt

4) io non ho riscontrato problemi con nessun gioco
che cabinet hai? mi pare scaldi parecchio! a me in idle con ventola a 27% sta fissa a 70°, ma quando gioco con la ventola che in automatico sale di giri
alla chiusura del gioco sarò a massimo 60°...
ciao

Amon 83
23-08-2008, 18:32
cosa hai usato:
rivatuner o atytool ?
che catalyst hai installato?
Grazie

mi unisco alla richiesta

Cooperdale
23-08-2008, 18:55
Domanda:
siete riusciti ad oc la scheda con il ccc almeno a portarla a 800 - 1000mhz o no?

A proposito come si sblocca la pagina del ccc in cui si può overcloccare? La mia è tutta in grigio...

Amon 83
23-08-2008, 19:16
A proposito come si sblocca la pagina del ccc in cui si può overcloccare? La mia è tutta in grigio...

dovrebbe esserci un quadratino dove ti fa abilitare l'overdrive con un flag

Sergio_Di_Rio
23-08-2008, 19:43
p.s: ma sei proprio il famoso Sergio di Rio, posso dire di consocerti alle ragazze come nella pubblicità :sofico:
ciao

Si si proprio io!..se vuoi ti presento un paio di femminoni, poi prendiamo il mio jet e ce ne andiamo a festeggiare nella megavilla di Miami (coca, puttanoni e bella musica)

;)

ps= oddio! sembra più una puntata di Luc1gnolo...! :doh: LOL :D

okorop
23-08-2008, 19:55
Si si proprio io!..se vuoi ti presento un paio di femminoni, poi prendiamo il mio jet e ce ne andiamo a festeggiare nella megavilla di Miami (coca, puttanoni e bella musica)

;)

ps= oddio! sembra più una puntata di Luc1gnolo...! :doh: LOL :D

:asd:

matthi87
23-08-2008, 20:08
cosa hai usato:
rivatuner o atytool ?
che catalyst hai installato?
Grazie

Catalyst 8.52.2 e usato l overdrive

che cabinet hai? mi pare scaldi parecchio! a me in idle con ventola a 27% sta fissa a 70°, ma quando gioco con la ventola che in automatico sale di giri
alla chiusura del gioco sarò a massimo 60°...
ciao


Azzarola che temperature come caspita fai? io ho addirittura il case aperto e una ventola che spara aria sotto e una sopra la scheda :mbe: :mbe: :mbe:

Adesso in idle mi sta a circa 76 gradi con 23 gradi in stanza

beppecir
23-08-2008, 20:17
Catalyst 8.52.2 e usato l overdrive




Azzarola che temperature come caspita fai? io ho addirittura il case aperto e una ventola che spara aria sotto e una sopra la scheda :mbe: :mbe: :mbe:

Adesso in idle mi sta a circa 76 gradi con 23 gradi in stanza

Certo che in inverno non avrai problemi con il riscaldamento! :D ;)

M4R1|<
23-08-2008, 20:18
80-85% è nulla ?
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_nvidia_geforce_gtx_280_sli/25/#abschnitt_crysis

si sicuramente hanno lavorato egreggiamente ma adesso tocca a crytek (anzi toccava mesi fa ;))

quoto, tutto vero l' ai risposto in maniera + tecnica io + pratica, quel gioco penso ke nn deve essere proprio considerato kome metro di performance grafica

no è sbagliato toglierlo completamente perchè a parte il discorso ottimizzazione e pensantezza crysis mostra quello che si può fare oggi con il 3D ;)

Cut
No, se dici questo, significa che non hai ben presente come funzionano i driver e come dialogano con il sistema. Gran parte del lavoro la fanno i driver. Esempio facile facile: secondo te perchè le prestazioni delle vga in crysis sono aumentate man mano con l'uscita di nuovi drivers? La risposta è semplice e sono sicuro che puoi dartela da solo.

so perfettamente che se i driver contribuiscono parecchio per la resa finale ;)



Quando scrivi: "..questo per via che l'engine sfrutta solo un core e nn è ottimizzato..", commetti un errore.

Se intedi core della CPU, non è vero, il CryEngine sfutta e supporta appieno i dual core (questo non significa che se premi i tastini ctrl+alt+canc devi per forza vedere i 2 core occupati al 100%). Se ti riferisci invece a sistemi multi-GPU, commetti lo stesso un errore, perchè sono i driver sli\crossfire che si occupano, in gran parte, di questo aspetto.

intendo core della cpu.
cmq nn sfrutta la potenza della cpu perchè gli fsp salgono solo al salire del clock e nn dei core (e anche di poco).
es in crysis che io abbia 1 core o 4 gli fps sono sempre quelli
fonte (http://www.computerbase.de/artikel/hardware/prozessoren/2008/bericht_1_2_3_4_cpu-kerne/7/#abschnitt_crysis)


Crysis resta un muro da scavalcare. Non importa se chi dice il contrario è amministratore, oppure è un utente più o meno autorevole di un forum più o meno autorevole, sono i fatti quelli che contano. I fatti sono che Crysis è l'unico titolo capace di mettere in ginocchio tutte le vga presenti sul mercato.

In ultimo, non critico assolutamente il supporto driver nVidia (al momento sono i migliori sotto questo aspetto), anzi dai vari benchmark presenti nelle recensioni sembra che l'SLI ed il 3-waySLI funzionino benissimo. Era il nostro amico kazama-resurrection86 che lamentava un cattivo funzionamento del 3-waySLI additandolo unicamente al Cryengine2 definendolo di "merda", così mi sono permesso di instradarlo verso i veri "colpevoli".

Cut

si ma ha ciò per l'incapacità che c'è stata nel programmarlo, oltre che sempre detto da fonti autorevoli nn sfrutta ne ottimizzazioni Nvidia ne AMD (ATI) quindi ecco un'altro motivo delle sua pesantezza ;)
poi sicuramente resta un muro ma in torno a crysis gira trappa enfasi ingiustificata...
cioè farcry ai tempi girava bene con una grafica da urlo, oggi crysis ha una grafica paurosa ma nn gira, e se lo fa a che prezzo?

thx
23-08-2008, 20:19
Catalyst 8.52.2 e usato l overdrive




Azzarola che temperature come caspita fai? io ho addirittura il case aperto e una ventola che spara aria sotto e una sopra la scheda :mbe: :mbe: :mbe:

Adesso in idle mi sta a circa 76 gradi con 23 gradi in stanza

Caspita ma quanto scalda sta scheda?
Con la mia GT temperatura ambiente 27° in full al massimo arrivo a 56° grazie anche all'accelero:read:

astaris
23-08-2008, 20:37
Ragazzi le temperature ad alcuni sono così alte perchè il profilo temperatura-velocità ventola è molto conservativo.
Infatti la velocità della ventola è fissata al 27 % fino a 70 °C e quindi inizia a salire linearmente giungendo al 100 % a 114 ° C.
Purtroppo allo stato attuale l'unico modo per cambiare il profilo della velocità della ventola è quello di modificare il bios.
Se siete interessati posto una guida, non è difficile.
Inoltre si possono abbattere notevolmente i consumi in idle abbassando le frequenze della gpu e della memoria in 2d (da notare che si guadagna di più abbassando il clock della memoria). Anche questo si può fare modificando il bios.

thx
23-08-2008, 20:42
Ragazzi le temperature ad alcuni sono così alte perchè il profilo temperatura-velocità ventola è molto conservativo.
Infatti la velocità della ventola è fissata al 27 % fino a 70 °C e quindi inizia a salire linearmente giungendo al 100 % a 114 ° C.
Purtroppo allo stato attuale l'unico modo per cambiare il profilo della velocità della ventola è quello di modificare il bios.
Se siete interessati posto una guida, non è difficile.
Inoltre si possono abbattere notevolmente i consumi in idle abbassando le frequenze della gpu e della memoria in 2d (da notare che si guadagna di più abbassando il clock della memoria). Anche questo si può fare modificando il bios.

Non c'e' ancora alternativa al dissi stock?

matthi87
23-08-2008, 20:44
Ragazzi le temperature ad alcuni sono così alte perchè il profilo temperatura-velocità ventola è molto conservativo.
Infatti la velocità della ventola è fissata al 27 % fino a 70 °C e quindi inizia a salire linearmente giungendo al 100 % a 114 ° C.
Purtroppo allo stato attuale l'unico modo per cambiare il profilo della velocità della ventola è quello di modificare il bios.
Se siete interessati posto una guida, non è difficile.
Inoltre si possono abbattere notevolmente i consumi in idle abbassando le frequenze della gpu e della memoria in 2d (da notare che si guadagna di più abbassando il clock della memoria). Anche questo si può fare modificando il bios.

Io sono interessatissimo su come fare la puoi fare per cortesia?

astaris
23-08-2008, 20:45
Non c'e' ancora alternativa al dissi stock?
Non lo so, ma dai vari test che ho visto il dissi di default è più che sufficiente, basta solo regolare in maniera più efficace la ventola.

astaris
23-08-2008, 20:47
Io sono interessatissimo su come fare la puoi fare per cortesia?
Ok, domani posto una guida completa, promesso :D

thx
23-08-2008, 20:49
Non lo so, ma dai vari test che ho visto il dissi di default è più che sufficiente, basta solo regolare in maniera più efficace la ventola.

Diventerebbe anche piu' rumorosa,conosco bene i dissi Ati e il loro fracasso

Ok, domani posto una guida completa, promesso.

Ottimo!

Cooperdale
23-08-2008, 21:16
Noto ora che nelle impostazioni video di vista dice che la memoria dedicata è 1024MB, è normale vero? Perché sono 2x1GB in Crossfire.

matthi87
23-08-2008, 21:21
Noto ora che nelle impostazioni video di vista dice che la memoria dedicata è 1024MB, è normale vero? Perché sono 2x1GB in Crossfire.

Si anche a me dice cosi

gervi
23-08-2008, 21:40
Boo...ma si intende 1gb x gpu no??

Ma voglio capire in definitiva, il collegamento trale 2 gpu, che dà come bandapassante 21.8 gb al secondo, risolve in maniera definitiva il lag o la latenza, di comunicazione tra le 2 gpu???

Insomma si ha davvero un raddoppio di prestazioni rispetto alla singola 4870, in tutti i giochi???


O dipende ancora dalla ottimizzazione dei driver??? quindi non x2 in tutti i giochi???

perciò, come diamine è che la ATi (pioniera da molto tempo nel multiGPU), non si decide a fare un controller di comunicazione tra le 2 gpu, tale che aprescindere da driver o gioco, sia sempre un RADDOPPIO DI PRESTAZIONI IN TUTTI GLI SCENARI???????


Quando si decidono????? :muro:

okorop
23-08-2008, 21:46
Boo...ma si intende 1gb x gpu no??

Ma voglio capire in definitiva, il collegamento trale 2 gpu, che dà come bandapassante 21.8 gb al secondo, risolve in maniera definitiva il lag o la latenza, di comunicazione tra le 2 gpu???

Insomma si ha davvero un raddoppio di prestazioni rispetto alla singola 4870, in tutti i giochi???


O dipende ancora dalla ottimizzazione dei driver??? quindi non x2 in tutti i giochi???

perciò, come diamine è che la ATi (pioniera da molto tempo nel multiGPU), non si decide a fare un controller di comunicazione tra le 2 gpu, tale che aprescindere da driver o gioco, sia sempre un RADDOPPIO DI PRESTAZIONI IN TUTTI GLI SCENARI???????


Quando si decidono????? :muro:

si spera con la 5870x2......aspettiamo, la tua ipotesi sarebbe eccellente e metterebbe le ati una spanna sopra le nvidia....sognando gpu a 30nm con 2 core nel futuro

gervi
23-08-2008, 21:56
si spera con la 5870x2......aspettiamo, la tua ipotesi sarebbe eccellente e metterebbe le ati una spanna sopra le nvidia....sognando gpu a 30nm con 2 core nel futuro

ma con un refresh di r700 ovvero con r780....possibile avere un controller nuovo, con lociga di bipartizione dinamica del carico????


Oppure dovremo aspettare r800 e dx 11???


è molto fumosa la situazione

okorop
23-08-2008, 22:12
ma con un refresh di r700 ovvero con r780....possibile avere un controller nuovo, con lociga di bipartizione dinamica del carico????


Oppure dovremo aspettare r800 e dx 11???


è molto fumosa la situazione

ma sai io non so cosa sia atteso nel 2009 precisamente gennaio o r800 o il refresh di r700 staremo a vedere comunque pare che la prossima multi gpu su stesso pcb amd abbia un nuovo controller

maxsona
23-08-2008, 22:17
Nvidia ha ancora qualche carta da sparare per GT200 ... processo produttivo, frequenze ecc... che poi non si sa che vantaggi avranno ... che margine di sviluppo c'è per le schede ATI? ... oppure si andrà direttamente ad R800?

okorop
23-08-2008, 22:35
Nvidia ha ancora qualche carta da sparare per GT200 ... processo produttivo, frequenze ecc... che poi non si sa che vantaggi avranno ... che margine di sviluppo c'è per le schede ATI? ... oppure si andrà direttamente ad R800?

non si sa nulla per adesso.....attendiamo ancora comunque prima di novembre-dicembre non si sapra nulla :)

atinvidia284
24-08-2008, 02:06
Nvidia ha ancora qualche carta da sparare per GT200 ... processo produttivo, frequenze ecc... che poi non si sa che vantaggi avranno ... che margine di sviluppo c'è per le schede ATI? ... oppure si andrà direttamente ad R800?
Penso Nvidia tirerà al limite con le frequenze grazie al die shrink,non riuscendo cmq a competere con l'ultima ati. Questo unito al fatto che si parla dell'r800 per l'inizio del 2009 forse porterà ad un rapido ricambio di schede (più veloce rispetto ai canonici tempi) da ambedue i fronti con livellameto di prezzi delle attuali gpu...ed io ne approfitterò :D

Massy84
24-08-2008, 10:12
Penso Nvidia tirerà al limite con le frequenze grazie al die shrink,non riuscendo cmq a competere con l'ultima ati. Questo unito al fatto che si parla dell'r800 per l'inizio del 2009 forse porterà ad un rapido ricambio di schede (più veloce rispetto ai canonici tempi) da ambedue i fronti con livellameto di prezzi delle attuali gpu...ed io ne approfitterò :D

bè si, avere un R800 tra 4-5 mesi vorrà dire trovare 4870 e 4850 a prezzi da sballo :D

astaris
24-08-2008, 10:20
Indice guide

Risoluzione "bug alta temperatura" e diminuzione della potenza in idle della 4870 x2 (http://www.hwupgrade.it/forum/showpost.php?p=23862014&postcount=2073)

Controllo della ventola della 4870 X2 con Rivatuner 2.11 (http://www.hwupgrade.it/forum/showpost.php?p=24148356&postcount=3579)

Modifica e flash del bios della 4870 x2 (http://www.hwupgrade.it/forum/showpost.php?p=23791647&postcount=1590)


Modifica e flash del bios della 4870 x2

1) Programmi necessari
Abbiamo bisogno dei seguenti programmi:
Radeon Bios Editor 1.14 (http://www.techpowerup.com/downloads/1177/TechPowerUp_Radeon_Bios_Editor_v1.14.html)
ATIFlash 3.60 (http://www.techpowerup.com/downloads/1123/ATIFlash_3.60.html)
GPU-Z 0.2.7 (http://www.techpowerup.com/downloads/1153/TechPowerUp_GPU-Z_v0.2.7.html)

2) Acquisizione dei bios originali
La 4870 x2 monta due bios, uno per la master gpu, uno per la slave. Per acquisire i bios installati sulla scheda, e' consigliabile utilizzare GPU-Z 0.2.7.
Lanciate il programma e, nella tab "Graphics Card", cliccate sul piccolo pulsante che compare vicino alla riga "Bios Version". Cliccate sul pulsante e salvate il primo bios. Ora selezionate la seconda gpu dal menu a tendina inferiore e salvate il secondo bios. Entrambi i bios dovrebbero essere di 128 KB.

3) Operazioni preliminari
Ora dobbiamo capire quale dei due bios è quello master e quale quello slave. E' molto semplice: aprite uno dei bios salvati con RBE (Radeon Bios Editor) e date un'occhiata alla riga "Hardware specs string"...

http://img291.imageshack.us/img291/9323/anonimoid9.jpg

In questo esempio ho aperto il master bios. A questo punto vi consiglio di rinominare i due files master.bin e slave.bin.
Ora per ogni bios è necessario segnare su un foglio di carta il checksum. Il checksum ce lo dice sempre RBE. Nello screen postato il checksum della master è 0X146F (due bytes).
A questo punto abbiamo due files (master.bin e slave.bin) e per ogni file abbiamo segnato su un foglio di carta il checksum del bios (il checksum della master e il checksum dello slave).

4) Modifica del bios - Ottimizzazione del profilo della fan
Aprite il master.bin con RBE e cliccate su "Fan Settings". Ecco uno scrren:

http://img247.imageshack.us/img247/9392/anonimo2dt8.jpg

Sulla destra RBE ci mostra il diagramma temperatura-velocità (temperatura sulle ascisse e velocità della ventola in percentuale sulle ordinate).
Possiamo scegliere tra un profilo lineare (selezionando automatic mode) e un profilo costante (selezionando manual mode). Ovviamente è meglio implementare un profilo lineare, ottimizzando quello di default.
Vediamo quali sono i parametri che caratterizzano il profilo lineare.
Anzitutto questa è la relazione che lega il duty-cycle della fan (il duty-cycle è la percentuale della velocità a cui ruota la fan con riferimento alla velocità massima) alla temperatura:
Duty_Cycle=Duty_Cycle_min+(100-Duty_Cycle_min)*(T-T_min)/(T_max-T_min)
in cui T è la temperatura della GPU.
Da questa relazione vediamo che la velocità della ventola aumenta linermente con la temperatura della GPU.
RBE ci fa impostare T_min, Duty_Cycle_min e Tmax.
T-min è la temperatura alla quale il duty-cycle della fan è Duty_Cycle_min.
Se la temperatura è inferiore di T_min, il duty cycle della ventola continua ad essere Duty_Cycle_min.
Quindi Duty_Cycle_min corrisponde alla velocità minima della ventola.
Nello screenshot postato si vede che Duty_Cycle_min è 27 %, mentre T_min è 70 ° C. Questo significa che fino a quando la temperatura della GPU non supera i 70 ° C, la velocità della ventola rimane costante e pari al 27 % della velocità massima. Da notare che questi sono i valori di default del bios della Sapphire. Ovviamente li possiamo ottimizzare.
Altro parametro che RBE ci fa cambiare è Tmax, che corrisponde allla temperatura alla quale il duty-cycle è il 100 %, ovvero la ventola ruota alla velocità massima.
Quindi riassumendo il profilo della ventola è fissato da Duty_Cycle_min,T_min e T_max.
Come si scelgono questi valori? Beh qui dipende dai "gusto" personali. Anzitutto è opportuno che Duty_Cycle_min e T_min si scelgano in maniera tale che in idle la temperatura T sia minore di T_min, infatti l'aumento di velocità dovrebbe intervenire solo quando la scheda è sotto carico. Basta che Duty_Cycle_min e T_min siano sufficeintemente alti. La scelta concreta di Duty_Cycle_min e T_min andrebbe poi effettuata in funzione della temperatura che desiderate in idle e della rumorosità che tollerate in idle, in funzione delle caratteristiche termiche del vostro sistema. Dal mio punto di vista il Duty_Cycle_min di default è un pò troppo basso, mentre T_min di default può andar bene. Io userei Duty_Cycle_min = 40 e lascerei invariato T_min (70).
In ultimo va impostato Tmax, la temperatura a cui la velocità della ventola è massima. Questo parametro influenzerà la temperatura a cui si porterà la GPU quando giocherete. Anche qui la scelta è personale. La domanda da farsi è: qual'e' la temperatura che la mia gpu non deve superare? Ovviamente la risposta deve essere realistica...
Per default Tmax è 114 ° C, che secondo me è eccessivo...personalmente imposterei Tmax a 95 - 100 ° C.
Ok, rimane da spiegare cos'e' il dynamic mode. In questa modalità il controller della ventola cambia dinamicamente Tmin in maniera tale da fare in modo che
la temperatura non sia superiore della target temperature (95 ° C di default), cercando di ridurre al minimo la velocità della ventola. Quindi il profilo lineare viene cambiato continuamente. Ovvio che se vogliamo che la ventola segua il nostro profilo di velocità, dobbiamo disabilitare il Dynamic mode.
Altri parametri che possiamo cambiare sono PWM ramp e Hysteresis.
PWM ramp fa in modo che la velocità della ventola non vari troppo bruscamente. Aumentando i secondi di PWM ramp, facciamo in modo che la velcoità vari sempre più dolcemente. Il valore di default è 3 secondi. Questo significa che, ammesso che la velocità della ventola aumenti sempre, sono necessari 3 secondi per passare dalla velocità nulla alla velocità massima.
Questo valore non andrebbe toccato, a meno che non avvertite fastidio dovuto a bruschi cambi di velocità della ventola. In questo caso il valore va aumentato.
L'Hysteresis fa in modo che la ventola non passi da velocità nulla alla velocità relativa a duty-min continuamente se la temperatura è prossima e inferiore a Tmin. Cambiate questo valore (aumentandolo) se notate questo problema. In definitiva inserendo i valori suggeriti, ecco cosa otteniamo:

http://img402.imageshack.us/img402/9505/anonimo3ul8.jpg

A questo punto passiamo alla modifica dei clock...

5) Modifica del bios - Cambiamento dei clock
Dopo che abbiamo cambiato il profilo di velocità, clikkiamo nella tab "Clock settings" (stiamo ancora modificando il bios della master).
Ecco come si presenta la tab nel caso della x2:

http://img99.imageshack.us/img99/122/anonimo4at6.jpg

http://img99.imageshack.us/img99/1069/anonimo5ir5.jpg

Come vediamo per la x2 ci sono 16 clocks info, da 0 a 15. Ogni clock info definisce clock della gpu, clock della memoria e tensione della gpu.
Dobbiamo capire anzitutto come sono raggruppate queste clock info per sapere quali dobbiamo cambiare.
Nella gestione powerplay delle ultime ati lo stato della scheda è definito dai drivers che pongono la GPU in uno stato energetico che possiamo chiamare stato di prestazione.
Quando la scheda è alimentata ( i drivers devono ancora essere caricati dal sistema operativo) la scheda si pone automaticamente nello stato di prestazione di boot, a cui corrisponde il clock info 0. All'avvio di windows, i drivers pongono la gpu in un altro stato di prestazione. La cosa interessante è che gli altri stati di prestazione della scheda non raccolgono solo un clock info (come lo stato di boot), ma 3 clock info. Poichè ci sono 16 clock info, è chiaro allora che, oltre allo stato di boot, ogni gpu della x2 è dotata di altri 5 stati di prestazione. Questi stati di prestazione sono etichettati da RBE nella piccola finestra in basso dello screen postato come Boot (clock info 0), power savings for notebooks (clock info 1,2 e 3), UVD (clock info 4,5 e 6), power savings for notebooks (clock info 7,8 e 9), power savings for notebooks (clock info 10,11 e 12), Thermal -GPU too hot (clock info 13,14 e 15).
Come vedete alcuni stati hanno lo stesso nome semplicemente per il fatto che neanche RBE è in grado di differenziarli sulla base del bios. Ma questo non è un problema, perchè dai valori dei clock possiamo capire dove dobbiamo agire.
Cerchiamo però prima di capire come funziona il power play. I drivers sulla base del tipo di task che sta eseguendo la GPU scelgono uno stato di prestazione. Tuttavia uno stato di prestazione è definito da tre clocks info, quindi chi sceglie tra questi clocks info?....Semplice, la GPU stessa in funzione del carico della GPU. Ad esempio supponiamo che stiamo guardando un blue-ray utilizzando le capacità di decodifica della gpu. I drivers pongono la GPU nello stato di prestazione UVD, a cui corrispondono clocks info 4,5 e 6. Inizialmente la GPU si troverà in 4, a cui dovrebbero corrispondere i clock più bassi. Se la decodifica di una scena fa salire il carico della gpu oltre una certa soglia, allora la gpu da sola sceglie il clock info 5 e così via.
Tuttavia dal bios della x2 possiamo notare una cosa: in ogni stato di prestazione i tre clocks ad esso associati sono sempre uguali! Questo significa che questa funzionalità del power play è stata disabilitata per le x2, mentre resta attiva sulle 4870 e 4850: questo è un vantaggio per quello che andremo a dire...
Ora gli stati di prestazione che possono esistere sono essenzialmente i seguenti:
a) GPU in 2d (la scheda si trova in questo stato anche se c'e' un applicazione in 3d windowed)
b) GPU in 3d (un applicazione 3d in fullscreen sta girando)
c) GPU in UVD (un programma che utilizza l'UVD sta girando)
d) GPU in fase di throttling o disabilitata (abbiamo superato la temperatura limite ammissibile oppure una delle gpu è stata disattivata)
Tuttavia sul bios editor (oltre allo stato di boot) vediamo 5 stati.
Il c) e d) corrispondono ovviamente algi stati 2 e 5 di RBE. E' facile poi scovare lo stato b). Infatti l'unico stato che ha i clocks in 3d su tutte e tre le clocks info è lo stato 4 che vediamo in RBE. Quindi per esclusione il 2d corrisponde o allo stato 1 o allo stato 3. Quale dei due? Beh, poco ci interessa, noi li modificheremo entrambi :D
Quindi in conclusione se volgliamo modificare i clocks in 3d, dobbiamo modificare lo stato 4 e quindi le clocks info 10,11 e 12 (inserendo gli stessi valori per ogni clocks info).
Se vogliamo modificare i clocks in 2d, dobbiamo modificare gli stati 1 e 3, e quindi le clocks info 1,2,3,7,8 e 9 (inserendo anche qui per ogni clocks info gli stessi valori).
Ora vi consiglio di modificare solo i clocks in 2d, perchè per i clocks in 3d è possibile usare l'overdrive. Inoltre se inserite un valore eccessivo per i clocks in 3d, potete rendere la scheda inutilizzabile. In ogni caso non potete inserire clocks in 3d superiori ai limiti dell'overdrive, a meno di non cambiare i limiti dell'overdrive sempre in RBE, con il rischio però di avere problemi con l'installazione dei nuovi drivers ati. In ogni caso non mi occuperò di questo aspetto in questa guida.
Allora, lo scopo qui è abbassare i clocks in 2d per diminuire il consumo in idle.
Valori che suggerisco sono 200 per la gpu e 300 per la memoria. Notate che è soprattutto il clock della memoria a influire sui consumi in idle.
Quindi dopo aver fatto gli opportuni cambiamenti, avremo la seguente situazione:

http://img169.imageshack.us/img169/6015/anonimo6ip9.jpg

Se volete, potete cambiare anche le tensioni di alimentazione della gpu. Gli unici valori possibili di tensione per la x2 sono:
1.00 V
1.05 V
1.15 V
1.25 V
E' unutile che provare ad inserire altri valori di tensione: non saranno applicati.
Abbiamo finito con il bios della master. Salvate il bios con un altro nome (ad esempio master_m.bin), caricate il bios della slave, apportate solo i cambiamenti del clock (qui non c'e' la possibilità di modificare il profilo della ventola che è controllata dalla master), salvate il file con un altro nome (ad esempio slave_m.bin) e il gioco è fatto, siamo pronti a flashare.

6) Flash del bios

Ok, ricapitolando, abbiamo 4 files (master.bin e slave.bin, che sono i bios originali, master_m.bin e slave_m.bin che sono i bios modificati) e su un foglio di carta abbiamo segnato i checksum dei bios originali.
Possiamo flashare i bios sotto dos (utilizzando ATIFlash) oppure sotto Windows (utilizzando WinFlash). Io suggerisco vivamente di flashare sotto dos per due motivi:
1) Sotto Windows se il sistema operativo si inceppa sono ca**i...
2) Attualemte WinFlash non supporta la x2.
Inoltre è raccomandabile riportare il sistema in condizioni di default prima di flashare in presenza di overclock.
Ecco la guida per utilizzare Atiflash. Abbiamo bisogno di un dischetto di avvio DOS (è anche possibile utilizzare una penna usb con l'immagine del del floppy installata nella penna oppure un cd-rom con l'immagine opporunamente convertita in iso e masterizzata) Sul dischetto dobbiamo inserire Atiflash e i due files del bios moddati. Partiamo quindi in dos (ricordatevi di abilitare correttamente il boot device dal bios della mobo) e procediamo...
Per prima cosa è fondamentale individuare le due gpu della x2 e capire quale è la master e quale la slave. Ecco come si fa.
Dal prompt digitare:

ATIFlash -i

Atiflash mosterà tutti gli adattatori video installati. Se abbiamo solo la x2 nel pc, allora gli adattatori disponibili sarano l'adattatore 0 e l'adattatore 1.
Dobbiamo capire chi tra 0 e 1 e il master e lo slave.
Digitiamo al prompt:

ATIFlash -cb 0

ATIflash ci mostrerà il bios checksum dell'adattatore 0. Confrontiamo questo checksum con quello segnato sul foglio di carta e voilà, abbiamo capito se 0 è master o slave.

Per sicurezza digitiamo

ATIFlash -cb 1

Questo checksum deve ovviamente corrispondere all'altro checsum che abbiamo segnato sul foglietto di carta.
Nel caso abbiamo tre adattatori dobbiamo digitare anche:

ATIFlash -cb 2

e così via se abbiamo più adattatori fino ad associare correttamente il numero dell'adattatore alla master e alla slave.
Ok, supponiamo che lo 0 è la master, e l'1 è la slave (E' SOLO UN ESEMPIO...).
Per flashare il bios della master digitiamo:

ATIFlash -p 0 master_m.bin

Al termine del flash ATIFlash chiederà di riavviare....NON RIAVVIATE.
Non rimane che flashare la slave:

ATIFlash -p 1 slave_m.bin

A questo punto, a flash terminato, è possibile riavviare.

Ok, questa è la guida, e mi raccomando se siete anche insicuri allo 0.0001 % di qualche passaggio, non procedete al flash.
Inoltre vi ricordo che il flash del bios è comunque un procedimento non sicuro al 100 %, un UPS ad esempio è raccomandabile.
Se qualcosa andasse storto, non disperate,il bios di una scheda video si può sempre recuperare bootando il pc con una sceda video pci.

gervi
24-08-2008, 10:22
E soprattutto se R800 RV870 saranno DX11 ed avranno un nuovo controller, bè allora il discorso cambia in maniera davvero interessante e nuova!!!!



P.S: Io infatti, aspetto, e x ora mi tengo stretto la HD3870

okorop
24-08-2008, 10:25
E soprattutto se R800 RV870 saranno DX11 ed avranno un nuovo controller, bè allora il discorso cambia in maniera davvero interessante e nuova!!!!



P.S: Io infatti, aspetto, e x ora mi tengo stretto la HD3870

no r800 dovrebbe essere dx10.1 le dx11 sono attese con windows 7 alla fine del 2009

matthi87
24-08-2008, 10:29
La guida alla modifica del BIOS può essere messa in prima pagina per cortesia?

gervi
24-08-2008, 10:44
no r800 dovrebbe essere dx10.1 le dx11 sono attese con windows 7 alla fine del 2009

ma veramente dalle ultime , sapevo che le dx 11 dovrebbero debuttare prima su Vista, attorno ad aprile maggio 2009!!!! :mbe:

M4R1|<
24-08-2008, 10:59
Ok, ecco la guida per modificare il bios della x2.

1) Programmi necessari
Abbiamo bisogno dei seguenti programmi:
Radeon Bios Editor 1.14 (http://www.techpowerup.com/downloads/1177/TechPowerUp_Radeon_Bios_Editor_v1.14.html)
ATIFlash 3.60 (http://www.techpowerup.com/downloads/1123/ATIFlash_3.60.html)
GPU-Z 0.2.7 (http://www.techpowerup.com/downloads/1153/TechPowerUp_GPU-Z_v0.2.7.html)

2) Acquisizione dei bios originali
La 4870 x2 monta due bios, uno per la master gpu, uno per la slave. Per acquisire i bios installati sulla scheda, e' consigliabile utilizzare GPU-Z 0.2.7.
Lanciate il programma e, nella tab "Graphics Card", cliccate sul piccolo pulsante che compare vicino alla riga "Bios Version". Cliccate sul pulsante e salvate il primo bios. Ora selezionate la seconda gpu dal menu a tendina inferiore e salvate il secondo bios. Entrambi i bios dovrebbero essere di 128 KB.

3) Operazioni preliminari
Ora dobbiamo capire quale dei due bios è quello master e quale quello slave. E' molto semplice: aprite uno dei bios salvati con RBE (Radeon Bios Editor) e date un'occhiata alla riga "Hardware specs string"...

http://img291.imageshack.us/img291/9323/anonimoid9.jpg

In questo esempio ho aperto il master bios. A questo punto vi consiglio di rinominare i due files master.bin e slave.bin.
Ora per ogni bios è necessario segnare su un foglio di carta il checksum. Il checksum ce lo dice sempre gpu-z. Nello screen postato il checksum del master 0X146F (due bytes).
A questo punto abbiamo due files (master.bin e slave.bin) e per ogni file abbiamo segnato su un foglio di carta il checksum del bios (il checksum del master e il checksum dello slave).

4) Modifica del bios - Ottimizzazione del profilo della fan
Aprite il master.bin con RBE e cliccate su "Fan Settings". Ecco uno scrren:

http://img247.imageshack.us/img247/9392/anonimo2dt8.jpg

Sulla destra RBE ci mostra il diagramma temperatura-velocità (temperatura sulle ascisse e velocità della ventola (in percentuale) sulle ordinate.
Possiamo scegliere tra un profilo lineare (selezionando automatic mode) e un profilo costante (selezionando manual mode). Ovviamente è meglio implementare un profilo lineare, ottimizzando quello di default.
Vediamo quali sono i parametri che caratterizzano il profilo lineare.
Anzitutto questa è la relazione che lega il duty-cycle della fan (il duty-cycle è la percentuale della velocità a cui ruota la fan con riferimento alla velocità massima) alla temperatura:
Duty_Cycle=Duty_Cycle_min+2/3*100*(T-T_min)/TRange (1)=
in cui T è la temperatura della GPU.
Da questa relazione vediamo che la velcoità della ventola aumenta linermente con la temperatura della GPU.
RBE ci fa impostare T_min, Duty_Cycle_min e Tmax.
T-min è la temperatura alla quale il duty-cycle della fan è Duty_Cycle_min.
Se la temperatura è inferiore di T_min, il duty cycle della ventola continua ad essere Duty_Cycle_min.
Quindi Duty_Cycle_min corrisponde alla velocità minima della ventola.
Nello screenshot postato si vede che Duty_Cycle_min è 27 %, mentre T_min è 70 ° C. Questo significa che fino a quando la temperatura della GPU non supera i 70 ° C, la velocità della ventola rimane costante e pari al 27 % della velocità massima. Da notare che questi sono i valori di default del bios della Sapphire. Ovviamente li possiamo ottimizzare.
Altro parametro che RBE ci fa cambiare è Tmax, che corrisponde allla temperatura alla quale il duty-cycle è il 100 %, ovvero la ventola ruota alla velocità massima.
Da notare che il controller della ventola ragola la velocità in base alla relazione (1), in cui non compare Tmax. Tmax è legato però a TRange dalla seguente relazione:
TRange=2/3*100*(T_max-T_min)/(100-Duty_Cycle_min) (2)
Per fortuna RBE calcola automaticamente TRange per noi, a seconda del valore di T_max che immettiamo.
La relazione (2) è importante perchè ci permetterà di cambiare il profilo temperatura-velocità della ventola con Rivatuner.
Quindi riassumendo il profilo della ventola è fissato da Duty_Cycle_min,T_min e T_max.
Come si scelgono questi valori? Beh qui dipende dai "gusto" personali. Anzitutto è opportuno che Duty_Cycle_min e T_min si scelgano in maniera tale che in idle la temperatura T sia minore di T_min, infatti l'aumento di velocità dovrebbe intervenire solo quando la scheda è sotto carico. Basta che Duty_Cycle_min e T_min siano sufficeintemente alti. La scelta concreta di Duty_Cycle_min e T_min andrebbe poi effettuata in funzione della temperatura che desiderate in idle e della rumorosità che tollerate in idle, in funzione delle caratteristiche termiche del vostro sistema. Dal mio punto di vista il Duty_Cycle_min di default è un pò troppo basso, mentre T_min di default può andar bene. Io userei Duty_Cycle_min = 40 e lascerei invariato T_min (70).
In ultimo va impostato Tmax, la temperatura a cui la velocità della ventola è massima. Questo parametro influenzerà la temperatura a cui si porterà la GPU quando giocherete. Anche qui la scelta è personale. La domanda da farsi è: qual'e' la temperatura che la mia gpu non deve superare? Ovviamente la risposta deve essere realistica...
Per default Tmax è 114 ° C, che secondo me è eccessivo...personalmente imposterei Tmax a 95 - 100 ° C.
Ok, rimane da spiegare cos'e' il dynamic mode. In questa modalità il controller della ventola cambia dinamicamente Tmax in maniera tale da fare in modo che
la temperatura non sia superiore della target temperature (95 ° C di default), cercando di ridurre al minimo la velocità della ventola. Quindi il profilo lineare viene cambiato continuamente. Ovvio che se vogliamo che la ventola segua il nostro profilo di velocità, dobbiamo disabilitare il Dynamic mode.
Altri parametri che possiamo cambiare sono PWM ramp e Hysteresis.
PWM ramp fa in modo che la velocità della ventola non vari troppo bruscamente. Aumentando i secondi di PWM ramp, facciamo in modo che la velcoità vari sempre più dolcemente. Il valore di default è 3 secondi. Questo significa che, ammesso che la velocità della ventola aumenti sempre, sono necessari 3 secondi per passare dalla velocità nulla alla velocità massima.
Questo valore non andrebbe toccato, a meno che non avvertite fastidio dovuto a bruschi cambi di velocità della ventola. In questo caso il valore va aumentato.
L'Hysteresis fa in modo che la ventola non passi da velocità nulla alla velocità relativa a duty-min continuamente se la temperatura è prossima e inferiore a Tmin. Cambiate questo valore (aumentandolo) se notate questo problema. In definitiva inserendo i valori suggeriti, ecco cosa otteniamo:

http://img402.imageshack.us/img402/9505/anonimo3ul8.jpg

A questo punto passiamo alla modifica dei clock...

5) Modifica del bios - Cambiamento dei clock

In fase di elaborazione...........

Complimenti ;)
direi che è da mettere in home ;)

M4R1|<
24-08-2008, 11:02
bè si, avere un R800 tra 4-5 mesi vorrà dire trovare 4870 e 4850 a prezzi da sballo :D

ma meglio una 5780 da prestazioni superiori alla 4870x2 a 200€ :D :sofico:

okorop
24-08-2008, 11:08
ma meglio una 5780 da prestazioni superiori alla 4870x2 a 200€ :D :sofico:

staremo a vedere :)

astaris
24-08-2008, 11:29
Ok, ho aggiunto le istruzioni per la modifica dei clocks...

Cooperdale
24-08-2008, 11:33
Ma Rivatuner 2.10 avrà un supporto solo parziale alla 4870X2! Ecco una risposta dello sviluppatore ad una domanda al riguardo:

"Partially. The functionality is limited to single GPU only, i.e. you'll be able to monitor single GPU clocks/temperatures/GPU load only as well as o/c will be only applied to single chip in crossfire mode. There are no plans to provide Crossfire support in the nearest future, sorry."

Invece ATT avrà mai supporto pieno a R700?

astaris
24-08-2008, 11:35
Ma Rivatuner 2.10 avrà un supporto solo parziale alla 4870X2! Ecco una risposta dello sviluppatore ad una domanda al riguardo:

"Partially. The functionality is limited to single GPU only, i.e. you'll be able to monitor single GPU clocks/temperatures/GPU load only as well as o/c will be only applied to single chip in crossfire mode. There are no plans to provide Crossfire support in the nearest future, sorry."

Invece ATT avrà mai supporto pieno a R700?
Chi lo sa, spero di sì.

okorop
24-08-2008, 11:35
Ma Rivatuner 2.10 avrà un supporto solo parziale alla 4870X2! Ecco una risposta dello sviluppatore ad una domanda al riguardo:

"Partially. The functionality is limited to single GPU only, i.e. you'll be able to monitor single GPU clocks/temperatures/GPU load only as well as o/c will be only applied to single chip in crossfire mode. There are no plans to provide Crossfire support in the nearest future, sorry."

Invece ATT avrà mai supporto pieno a R700?
se compri una 4870x2 a ray adams si :asd:

gervi
24-08-2008, 11:36
staremo a vedere :)

comunque, la cosa importante, è che magari anche con r700 refreshato, quindi sempre dx 10.1, nella x2 , almeno si integri un controller completamente nuovo, con logica interna, cosi chè la x2 multigpu, vada davvero al doppio della singola, in qualunque ambito, senza + essere driver o gioco dipendente!!!!!!!!!!!!!!!

appleroof
24-08-2008, 11:37
Verissimo, il bench di crysis va bene oper poter fare un confronto, così come qualunque bench basato su un gioco (Almeno si ha un visione più reale dell'esatto comportamento dell'hw, cosa che i 3dm non fanno)

Per quanto riguarda il discorso della 8800gtx che và ancora bene... beh
se si considerano monitor fino a 22" è abbastanza corretto il ragionamento, però se si considera l'intero panorama dei monitor in uso e in commercio cioè compresi quelli con diagnonale da 24" in su, la 8800gtx non c'è la fa fa, come non ce la fa la 9800gtx o la gtx260, dunque in termini assoluti non è corretto, considerando che molti si stanno spostando sui 24" per via della risoluzione maggiore e della posibilità di usare il monitor in fullhd, li per giocare senza compromessi minimo ti ci vuole una gx2 (che già con grid richiede di scendere un po con i dettagli per avere un game play fluido) o un cf di hd4870, 3870 o uno sli di 260... la gtx280 avendo molta potenzxa e 1gb di vram dovrebbe comportarsi discretamente.
In questi casi hanno senso schede con doppia gpu e una dotazione di vram alta per ogni gpu, infatti anche se non è un test che ha poi un riscontro molto reale con l'uso ludico della scheda, la 4870x2 a 1920x1200 arriva con filtri attivati tranquillamente a 18000punti di 3dm06, la 9800gx2 (la metto in rapporto perchè l'ho avuta fino a pochi giorni fà) arriva a 18000punti ma 1280x1024 senza filtri...
Secondo me al disotto dei 1680x1050 una scheda come la HD4870x2 o la gx2 e simili non hanno senso se non per fare punteggi assurdi al 3dm06 ma nell'uso reale rischiare di essere perennemente cpu limited e dunque non poter sfruttare poi la potenza effettiva della scheda video.

assolutamente sbagliato, per la cronaca :)

okorop
24-08-2008, 11:39
comunque, la cosa importante, è che magari anche con r700 refreshato, quindi sempre dx 10.1, nella x2 , almeno si integri un controller completamente nuovo, con logica interna, cosi chè la x2 multigpu, vada davvero al doppio della singola, in qualunque ambito, senza + essere driver o gioco dipendente!!!!!!!!!!!!!!!

sarebbe bello ripeto......se ati avesse questo supporto avrebbe da qui a 10 anni la supremazia su nvidia......attendiamo

michelgaetano
24-08-2008, 11:41
assolutamente sbagliato, per la cronaca :)

Mi associo.

Mi viene da ridere pensando all'altro thread e la gtx 280 a 1680*1050 (non per okorop, ma per l'altro che sosteneva l'acquisto :asd:)

Cooperdale
24-08-2008, 11:42
se compri una 4870x2 a ray adams si :asd:

Beh io altri 10 euro ce li metto anche subito! Partiamo con un'altra petizione? Chi l'aveva attivata la prima volta?

boscacci
24-08-2008, 11:42
Ciao a tutti!

Ho notato una cosa strana: finchè non lancio una applicazione 3D (es. 3DMark Vantage), la temperatura in idle della prima GPU si mantiene molto elevata (c.a. 85 gradi) e la ventola si assesta intorno ai 1500 giri.

Dopo che ho lanciato la prima applicazione 3D, la temperatura in idle crolla anche al di sotto dei 70 gradi e SOPRATTUTTO non risale agli 85 gradi iniziali nemmeno dopo un'ora, con un range di giri della ventola che varia tra i 1200 e i 1300.

Succede anche a voi ?

Grazie e a buon rendere ;-)
Alex

Andrea deluxe
24-08-2008, 11:42
Mi associo.

Mi viene da ridere pensando all'altro thread e la gtx 280 a 1680*1050 (non per okorop, ma per l'altro che sosteneva l'acquisto :asd:)

ma che h dici?

okorop
24-08-2008, 11:42
Beh io altri 10 euro ce li metto anche subito! Partiamo con un'altra petizione? Chi l'aveva attivata la prima volta?

baravia :)
@michelgaetano comunque è per ste cose che voglio cambiare aria non per altro......

michelgaetano
24-08-2008, 11:44
ma che h dici?

Dico che c'è gente che consiglia di prendere schede mostruose come la gtx 280 per usarle a risoluzioni basse come 1680*1050, quando poi, come sottolineava il buon apple, una "vecchissima" 8800 gtx non ha tutt'oggi alcun problema a quella risoluzione, reggendo addirittura a 1920.

Andrea deluxe
24-08-2008, 11:48
Dico che c'è gente che consiglia di prendere schede mostruose come la gtx 280 per usarle a risoluzioni basse come 1680*1050, quando poi, come sottolineava il buon apple, una "vecchissima" 8800 gtx non ha tutt'oggi alcun problema a quella risoluzione, reggendo addirittura a 1920.

pero' non ci si puo' limitare "all'oggi"


c'e' da considerare il futuro e il presente!

il presente non e' tanto rose e fiori e neanche il futuro!

scusa ma a te farebbe schifo giocarti crysis dx10 AA2x e AF16x @1680*1050 conun framerate spettacolare?

ti farebbe schifo giocare a grid, far cry2, undercover con dettagli massimi e framerate mostruosi con AA attivo?

smettiamola con questo sopravvalutare le vga....

appleroof
24-08-2008, 11:49
Mi associo.

Mi viene da ridere pensando all'altro thread e la gtx 280 a 1680*1050 (non per okorop, ma per l'altro che sosteneva l'acquisto :asd:)

questo è un altro discorso secondo me: a quella risoluzione schede molto potenti come la gtx280 o ancor più 4870x2 hanno un senso solo se pensiamo in termini di longevità

nell'immediato poi, ti danno enormi soddisfazioni se sei uno che gioca con filtri sempre a palla

è chiaro che se uno guarda il rapporto prezzo/prestazioni e cambia spesso vga, allora una 4850 o una 9800gtx+ sono la scelta migliore in assoluto, a 1680x1050

imho cmq le schede attualmente migliori da tutti i punti di vista, diciamo l'equilibrio migliore in assoluto per prezzo/prestazioni/longevità, sia per 1680 che anche per 1920 sono la 4870 e la gtx260

michelgaetano
24-08-2008, 11:50
pero' non ci si puo' limitare "all'oggi"


c'e' da considerare il futuro e il presente!

il presente non e' tanto rose e fiori e neanche il futuro!

scusa ma a te farebbe schifo giocarti crysis dx10 AA2x e AF16x @1680*1050 conun framerate spettacolre?

ti farebbe schifo giocare a grid, far cry2, undercover con dettagli massimi e framerate mostruosi con AA attivo?

smettiamola con questo sopravvalutare le vga....

Guarda che gioco a GRID con la config i nfirma a 1680*1050 tutto al max e AA 4x, mai un rallentamento.

Gli altri titoli ancora non sono usciti, ma parliamo di una gpu da 90 euro, non certo da 22".

okorop
24-08-2008, 11:52
pero' non ci si puo' limitare "all'oggi"


c'e' da considerare il futuro e il presente!

il presente non e' tanto rose e fiori e neanche il futuro!

scusa ma a te farebbe schifo giocarti crysis dx10 AA2x e AF16x @1680*1050 conun framerate spettacolare?

ti farebbe schifo giocare a grid, far cry2, undercover con dettagli massimi e framerate mostruosi con AA attivo?

smettiamola con questo sopravvalutare le vga....
quoto sembra sempre che uno debba avere un monitor da 2560x1600 per le vga top...invece non è cosi secondo me
Guarda che gioco a GRID con la config i nfirma a 1680*1050 tutto al max e AA 4x, mai un rallentamento.

Gli altri titoli ancora non sono usciti, ma parliamo di una gpu da 90 euro, non certo da 22".

su questo hai ragione ma anche la mia 3870 avrebbe fatto la stessa cosa con il 22"....pero non mi convinceva troppo come soluzione....le 4850 in crossfire son state una sola per me dopo i tenti problemi che mi han dato (prese per lo stesso discorso della longevità) e invece......la gtx280 mi sembra la scelta giusta dato che non voglio riprendere in mano un crossfire (4870x2)....poi magari sbaglio e tra due mesi la devo cambiare chissa vediamo, ma son convinto che cosi non sara

michelgaetano
24-08-2008, 11:52
questo è un altro discorso secondo me: a quella risoluzione schede molto potenti come la gtx280 o ancor più 4870x2 hanno un senso solo se pensiamo in termini di longevità

nell'immediato poi, ti danno enormi soddisfazioni se sei uno che gioca con filtri sempre a palla

è chiaro che se uno guarda il rapporto prezzo/prestazioni e cambia spesso vga, allora una 4850 o una 9800gtx+ sono la scelta migliore in assoluto, a 1680x1050

imho cmq le schede attualmente migliori da tutti i punti di vista, diciamo l'equilibrio migliore in assoluto per prezzo/prestazioni/longevità, sia per 1680 che anche per 1920 sono la 4870 e la gtx260

Indubbiamente. La mia riflessione, nel thread della gtx 280, mirava a far notare come una 4870 (o anche una 260) non facessero la minima piega a 1680 (nè la faranno per i prossimi mesi), comportando una spesa di 100-150 € in meno. Quei soldi, li si va a reinvestire in futuro in un'altra gpu top.

Ovviamente sono stato preso a pesci in faccia con la solita risposta:" agli enthusiast non frega dei soldi" ^_^

okorop
24-08-2008, 11:59
Indubbiamente. La mia riflessione, nel thread della gtx 280, mirava a far notare come una 4870 (o anche una 260) non facessero la minima piega a 1680 (nè la faranno per i prossimi mesi), comportando una spesa di 100-150 € in meno. Quei soldi, li si va a reinvestire in futuro in un'altra gpu top.

Ovviamente sono stato preso a pesci in faccia con la solita risposta:" agli enthusiast non frega dei soldi" ^_^

ma sai cosa ci ho smenato io per le 4850 in crossfire? mi han lasciato a piedi letteralmente.....e non mi reputo un enthusiast.....ho sbagliato e adesso devo rimediare e non voglio aver problemi di nessuna sorta con driver e cose varie, e sembra che anche la 4870x2 come la 4870 abbiano sti problemi......poi ognuno sceglie come vuole

appleroof
24-08-2008, 11:59
Indubbiamente. La mia riflessione, nel thread della gtx 280, mirava a far notare come una 4870 (o anche una 260) non facessero la minima piega a 1680, comportando una spesa di 100-150 € in meno. Quei soldi, li si va a reinvestire in futuro in un'altra gpu top.

Ovviamente sono stato preso a pesci in faccia con la solita risposta:" agli enthusiast non frega dei soldi" ^_^

non so se ricordi quante volte ho detto che attualmente non spenderei più di 300€ (dicevo 350 ma intanto sono passati un paio di mesi :D ) per una vga, qualunque essa sia, e questo fondamentalmente perchè l'anno prossimo (non tra "x" anni) usciranno le archittetture completamente nuove sia Ati che Nvidia

fermo restando questo e quello che dicevo nel mio post che hai quotato, in effetti però è vero che gli entusiasth non si fanno troppi problemi: sono quelli che vogliono il massimo, e lo vogliono adesso, che sia la gtx280 o la 4870x2 o addirittura le combinazioni multi-schede di queste vga, a loro non interessa, e nel momento in cui i soldi sono i loro e non i miei, a me và benissimo che agiscano così :D (e forse se potessi lo farei anche io, forse :read: :D )

astaris
24-08-2008, 11:59
Ok la guida è terminata...ho aggiunto le istruzioni per il flash del bios....
http://www.hwupgrade.it/forum/showpost.php?p=23791647&postcount=1590

astaris
24-08-2008, 12:04
Ciao a tutti!

Ho notato una cosa strana: finchè non lancio una applicazione 3D (es. 3DMark Vantage), la temperatura in idle della prima GPU si mantiene molto elevata (c.a. 85 gradi) e la ventola si assesta intorno ai 1500 giri.

Dopo che ho lanciato la prima applicazione 3D, la temperatura in idle crolla anche al di sotto dei 70 gradi e SOPRATTUTTO non risale agli 85 gradi iniziali nemmeno dopo un'ora, con un range di giri della ventola che varia tra i 1200 e i 1300.

Succede anche a voi ?

Grazie e a buon rendere ;-)
Alex
E' normale, perchè è attivo il dynamic control della temperatura e la temperatura di riferimento è maggiore di 85 °C. Se leggi la sezione sul profilo della velocità nella guida alla modifica del bios capirai che è un andamento normale.

boscacci
24-08-2008, 12:10
E' normale, perchè è attivo il dynamic control della temperatura e la temperatura di riferimento è maggiore di 85 °C. Se leggi la sezione sul profilo della velocità nella guida alla modifica del bios capirai che è un andamento normale.

Ok, però adesso ho notato una cosa: di default, all'avvio di Windows, la frequenza di clock della prima GPU è fissa a 900Mhz (verificato anche con GPU-Z) mentre quella della seconda GPU è fissa a 507Mhz.

Dopo il primo lancio di una applicazione 3D, il clock della prima GPU magicamente scende a 507Mhz e la temperatura in idle crolla. Ma perchè ????

astaris
24-08-2008, 12:13
Ok, però adesso ho notato una cosa: di default, all'avvio di Windows, la frequenza di clock della prima GPU è fissa a 900Mhz (verificato anche con GPU-Z) mentre quella della seconda GPU è fissa a 507Mhz.

Dopo il primo lancio di una applicazione 3D, il clock della prima GPU magicamente scende a 507Mhz e la temperatura in idle crolla. Ma perchè ????
Probabilemte perchè all'avvio di windows i drivers pongono la prima gpu nello stato 3d e la seconda nello stato 2d incorrettamente. Alla fine dell'applicazione 3d, c'e' il switch 3d-2d che forza i drivers a mettere entrambe le gpu nello stato 2d. Penso quindi sia un bug dei drivers.

boscacci
24-08-2008, 12:14
Probabilemte perchè all'avvio di windows i drivers pongono la prima gpu nello stato 3d e la seconda nello stato 2d incorrettamente. Alla fine dell'applicazione 3d, c'e' il switch 3d-2d che forza i drivers a mettere entrambe le gpu nello stato 2d. Penso quindi sia un bug dei drivers.

Infatti, è proprio quello che penso anche io. Succede anche a tutti voi, con gli 8.8 ufficiali ?

Grazie mille!
Alex

Syphon
24-08-2008, 12:36
Mi associo.

Mi viene da ridere pensando all'altro thread e la gtx 280 a 1680*1050 (non per okorop, ma per l'altro che sosteneva l'acquisto :asd:)


Nel senso che una 280gtx è sprecata a 1680x1050?

Amon 83
24-08-2008, 13:32
Ok, ecco la guida per modificare il bios della x2.

1) Programmi necessari
Abbiamo bisogno dei seguenti programmi:
Radeon Bios Editor 1.14 (http://www.techpowerup.com/downloads/1177/TechPowerUp_Radeon_Bios_Editor_v1.14.html)
ATIFlash 3.60 (http://www.techpowerup.com/downloads/1123/ATIFlash_3.60.html)
GPU-Z 0.2.7 (http://www.techpowerup.com/downloads/1153/TechPowerUp_GPU-Z_v0.2.7.html)

2) Acquisizione dei bios originali
La 4870 x2 monta due bios, uno per la master gpu, uno per la slave. Per acquisire i bios installati sulla scheda, e' consigliabile utilizzare GPU-Z 0.2.7.
Lanciate il programma e, nella tab "Graphics Card", cliccate sul piccolo pulsante che compare vicino alla riga "Bios Version". Cliccate sul pulsante e salvate il primo bios. Ora selezionate la seconda gpu dal menu a tendina inferiore e salvate il secondo bios. Entrambi i bios dovrebbero essere di 128 KB.

3) Operazioni preliminari
Ora dobbiamo capire quale dei due bios è quello master e quale quello slave. E' molto semplice: aprite uno dei bios salvati con RBE (Radeon Bios Editor) e date un'occhiata alla riga "Hardware specs string"...

http://img291.imageshack.us/img291/9323/anonimoid9.jpg

In questo esempio ho aperto il master bios. A questo punto vi consiglio di rinominare i due files master.bin e slave.bin.
Ora per ogni bios è necessario segnare su un foglio di carta il checksum. Il checksum ce lo dice sempre gpu-z. Nello screen postato il checksum del master 0X146F (due bytes).
A questo punto abbiamo due files (master.bin e slave.bin) e per ogni file abbiamo segnato su un foglio di carta il checksum del bios (il checksum del master e il checksum dello slave).

4) Modifica del bios - Ottimizzazione del profilo della fan
Aprite il master.bin con RBE e cliccate su "Fan Settings". Ecco uno scrren:

http://img247.imageshack.us/img247/9392/anonimo2dt8.jpg

Sulla destra RBE ci mostra il diagramma temperatura-velocità (temperatura sulle ascisse e velocità della ventola (in percentuale) sulle ordinate.
Possiamo scegliere tra un profilo lineare (selezionando automatic mode) e un profilo costante (selezionando manual mode). Ovviamente è meglio implementare un profilo lineare, ottimizzando quello di default.
Vediamo quali sono i parametri che caratterizzano il profilo lineare.
Anzitutto questa è la relazione che lega il duty-cycle della fan (il duty-cycle è la percentuale della velocità a cui ruota la fan con riferimento alla velocità massima) alla temperatura:
Duty_Cycle=Duty_Cycle_min+2/3*100*(T-T_min)/TRange (1)=
in cui T è la temperatura della GPU.
Da questa relazione vediamo che la velcoità della ventola aumenta linermente con la temperatura della GPU.
RBE ci fa impostare T_min, Duty_Cycle_min e Tmax.
T-min è la temperatura alla quale il duty-cycle della fan è Duty_Cycle_min.
Se la temperatura è inferiore di T_min, il duty cycle della ventola continua ad essere Duty_Cycle_min.
Quindi Duty_Cycle_min corrisponde alla velocità minima della ventola.
Nello screenshot postato si vede che Duty_Cycle_min è 27 %, mentre T_min è 70 ° C. Questo significa che fino a quando la temperatura della GPU non supera i 70 ° C, la velocità della ventola rimane costante e pari al 27 % della velocità massima. Da notare che questi sono i valori di default del bios della Sapphire. Ovviamente li possiamo ottimizzare.
Altro parametro che RBE ci fa cambiare è Tmax, che corrisponde allla temperatura alla quale il duty-cycle è il 100 %, ovvero la ventola ruota alla velocità massima.
Da notare che il controller della ventola ragola la velocità in base alla relazione (1), in cui non compare Tmax. Tmax è legato però a TRange dalla seguente relazione:
TRange=2/3*100*(T_max-T_min)/(100-Duty_Cycle_min) (2)
Per fortuna RBE calcola automaticamente TRange per noi, a seconda del valore di T_max che immettiamo.
La relazione (2) è importante perchè ci permetterà di cambiare il profilo temperatura-velocità della ventola con Rivatuner.
Quindi riassumendo il profilo della ventola è fissato da Duty_Cycle_min,T_min e T_max.

Come si scelgono questi valori? Beh qui dipende dai "gusto" personali. Anzitutto è opportuno che Duty_Cycle_min e T_min si scelgano in maniera tale che in idle la temperatura T sia minore di T_min, infatti l'aumento di velocità dovrebbe intervenire solo quando la scheda è sotto carico. Basta che Duty_Cycle_min e T_min siano sufficeintemente alti. La scelta concreta di Duty_Cycle_min e T_min andrebbe poi effettuata in funzione della temperatura che desiderate in idle e della rumorosità che tollerate in idle, in funzione delle caratteristiche termiche del vostro sistema. Dal mio punto di vista il Duty_Cycle_min di default è un pò troppo basso, mentre T_min di default può andar bene. Io userei Duty_Cycle_min = 40 e lascerei invariato T_min (70).
In ultimo va impostato Tmax, la temperatura a cui la velocità della ventola è massima. Questo parametro influenzerà la temperatura a cui si porterà la GPU quando giocherete. Anche qui la scelta è personale. La domanda da farsi è: qual'e' la temperatura che la mia gpu non deve superare? Ovviamente la risposta deve essere realistica...
Per default Tmax è 114 ° C, che secondo me è eccessivo...personalmente imposterei Tmax a 95 - 100 ° C.
Ok, rimane da spiegare cos'e' il dynamic mode. In questa modalità il controller della ventola cambia dinamicamente Tmax in maniera tale da fare in modo che
la temperatura non sia superiore della target temperature (95 ° C di default), cercando di ridurre al minimo la velocità della ventola. Quindi il profilo lineare viene cambiato continuamente. Ovvio che se vogliamo che la ventola segua il nostro profilo di velocità, dobbiamo disabilitare il Dynamic mode.
Altri parametri che possiamo cambiare sono PWM ramp e Hysteresis.
PWM ramp fa in modo che la velocità della ventola non vari troppo bruscamente. Aumentando i secondi di PWM ramp, facciamo in modo che la velcoità vari sempre più dolcemente. Il valore di default è 3 secondi. Questo significa che, ammesso che la velocità della ventola aumenti sempre, sono necessari 3 secondi per passare dalla velocità nulla alla velocità massima.
Questo valore non andrebbe toccato, a meno che non avvertite fastidio dovuto a bruschi cambi di velocità della ventola. In questo caso il valore va aumentato.
L'Hysteresis fa in modo che la ventola non passi da velocità nulla alla velocità relativa a duty-min continuamente se la temperatura è prossima e inferiore a Tmin. Cambiate questo valore (aumentandolo) se notate questo problema. In definitiva inserendo i valori suggeriti, ecco cosa otteniamo:

http://img402.imageshack.us/img402/9505/anonimo3ul8.jpg

A questo punto passiamo alla modifica dei clock...

5) Modifica del bios - Cambiamento dei clock
Dopo che abbiamo cambiato il profilo di velocità, clikkiamo nella tab "Clock settings" (stiamo ancora modificando il bios della master).
Ecco come si presenta la tab nel caso della x2:

http://img99.imageshack.us/img99/122/anonimo4at6.jpg

http://img99.imageshack.us/img99/1069/anonimo5ir5.jpg

Come vediamo per la x2 ci sono 16 clocks info, da 0 a 15. Ogni clock info definisce clock della gpu, clock della memoria e tensione della gpu.
Dobbiamo capire anzitutto come sono raggruppate queste clock info per sapere quali dobbiamo cambiare.
Nella gestione powerplay delle ultime ati lo stato della scheda è definito dai drivers che pongono la GPU in uno stato energetico che possiamo chiamare stato di prestazione.
Quando la scheda è alimentata ( i drivers devono ancora essere caricati dal sistema operativo) la scheda si pone automaticamente nello stato di prestazione di boot, a cui corrisponde il clock info 0. All'avvio di windows, i drivers pongono la gpu in un altro stato di prestazione. La cosa interessante è che gli altri stati di prestazione della scheda non raccolgono solo un clock info (come lo stato di boot), ma 3 clock info. Poichè ci sono 16 clock info, è chiaro allora che, oltre allo stato di boot, ogni gpu della x2 è dotata di altri 5 stati di prestazione. Questi stati di prestazione sono etichettati da RBE nella piccola finestra in basso dello screen postato come Boot (clock info 0), power savings for notebooks (clock info 1,2 e 3), UVD (clock info 4,5 e 6), power savings for notebooks (clock info 7,8 e 9), power savings for notebooks (clock info 10,11 e 12), Thermal -GPU too hot (clock info 13,14 e 15).
Come vedete alcuni stati hanno lo stesso nome semplicemente per il fatto che neanche RBE è in grado di differenziarli sulla base del bios. Ma questo non è un problema, perchè dai valori dei clock possiamo capire dove dobbiamo agire.
Cerchiamo però prima di capire come funziona il power play. I drivers sulla base del tipo di task che sta eseguendo la GPU scelgono uno stato di prestazione. Tuttavia uno stato di prestazione è definito da tre clocks info, quindi chi sceglie tra questi clocks info?....Semplice, la GPU stessa in funzione del carico della GPU. Ad esempio supponiamo che stiamo guardando un blue-ray utilizzando le capacità di decodifica della gpu. I drivers pongono la GPU nello stato di prestazione UVD, a cui corrispondono clocks info 4,5 e 6. Inizialmente la GPU si troverà in 4, a cui dovrebbero corrispondere i clock più bassi. Se la decodifica di una scena fa salire il carico della gpu oltre una certa soglia, allora la gpu da sola sceglie il clock info 5 e così via.
Tuttavia dal bios della x2 possiamo notare una cosa: in ogni stato di prestazione i tre clocks ad esso associati sono sempre uguali! Questo significa che questa funzionalità del power play è stata disabilitata per le x2, mentre resta attiva sulle 4870 e 4850: questo è un vantaggio per quello che andremo a dire...
Ora gli stati di prestazione che possono esistere sono essenzialmente i seguenti:
a) GPU in 2d (la scheda si trova in questo stato anche se c'e' un applicazione in 3d windowed)
b) GPU in 3d (un applicazione 3d in fullscreen sta girando)
c) GPU in UVD (un programma che utilizza l'UVD sta girando)
d) GPU in fase di throttling o disabilitata (abbiamo superato la temperatura limite ammissibile oppure una delle gpu è stata disattivata)
Tuttavia sul bios editor (oltre allo stato di boot) vediamo 5 stati.
Il c) e d) corrispondono ovviamente algi stati 2 e 5 di RBE. E' facile poi scovare lo stato b). Infatti l'unico stato che ha i clocks in 3d su tutte e tre le clocks info è lo stato 4 che vediamo in RBE. Quindi per esclusione il 2d corrisponde o allo stato 1 o allo stato 3. Quale dei due? Beh, poco ci interessa, noi li modificheremo entrambi :D
Quindi in conclusione se volgliamo modificare i clocks in 3d, dobbiamo modificare lo stato 4 e quindi le clocks info 10,11 e 12 (inserendo gli stessi valori per ogni clocks info).
Se vogliamo modificare i clocks in 2d, dobbiamo modificare gli stati 1 e 3, e quindi le clocks info 1,2,3,7,8 e 9 (inserendo anche qui per ogni clocks info gli stessi valori).
Ora vi consiglio di modificare solo i clocks in 2d, perchè per i clocks in 3d è possibile usare l'overdrive. Inoltre se inserite un valore eccessivo per i clocks in 3d, potete rendere la scheda inutilizzabile. In ogni caso non potete inserire clocks in 3d superiori ai limiti dell'overdrive, a meno di non cambiare i limiti dell'overdrive sempre in RBE, con il rischio però di avere problemi con l'installazione dei nuovi drivers ati. In ogni caso non mi occuperò di questo aspetto in questa guida.
Allora, lo scopo qui è abbassare i clocks in 2d per diminuire il consumo in idle.
Valori che suggerisco sono 200 per la gpu e 300 per la memoria. Notate che è soprattutto il clock della memoria a influire sui consumi in idle.
Quindi dopo aver fatto gli opportuni cambiamenti, avremo la seguente situazione:

http://img169.imageshack.us/img169/6015/anonimo6ip9.jpg

Notate che non ho cambiato le tensioni, che sono già sufficientemente basse a default (1.05).
Abbiamo finito con il bios della master. Salvate il bios con un altro nome (ad esempio master_m.bin), caricate il bios della slave, apportate solo i cambiamenti del clock (qui non c'e' la possibilità di modificare il profilo della ventola che è controllata dalla master), salvate il file con un altro nome (ad esempio slave_m.bin) e il gioco è fatto, siamo pronti a flashare.

6) Flash del bios

Ok, ricapitolando, abbiamo 4 files (master.bin e slave.bin, che sono i bios originali, master_m.bin e slave_m.bin che sono i bios modificati) e su un foglio di carta abbiamo segnato i checksum dei bios originali.
Possiamo flashare i bios sotto dos (utilizzando ATIFlash) oppure sotto Windows (utilizzando WinFlash). Io suggerisco vivamente di flashare sotto dos per due motivi:
1) Sotto Windows se il sistema operativo si inceppa sono ca**i...
2) Attualemte WinFlash non supporta la x2.
Inoltre è raccomandabile riportare il sistema in condizioni di default prima di flashare in presenza di overclock.
Ecco la guida per utilizzare Atiflash. Abbiamo bisogno di un dischetto di avvio DOS (è anche possibile utilizzare una penna usb con l'immagine del del floppy installata nella penna oppure un cd-rom con l'immagine opporunamente convertita in iso e masterizzata) Sul dischetto dobbiamo inserire Atiflash e i due files del bios moddati. Partiamo quindi in dos (ricordatevi di abilitare correttamente il boot device dal bios della mobo) e procediamo...
Per prima cosa è fondamentale individuare le due gpu della x2 e capire quale è la master e quale la slave. Ecco come si fa.
Dal prompt digitare:

ATIFlash -i

Atiflash mosterà tutti gli adattatori video installati. Se abbiamo solo la x2 nel pc, allora gli adattatori disponibili sarano l'adattatore 0 e l'adattatore 1.
Dobbiamo capire chi tra 0 e 1 e il master e lo slave.
Digitiamo al prompt:

ATIFlash -cb 0

ATIflash ci mostrerà il bios checksum dell'adattatore 0. Confrontiamo questo checksum con quello segnato sul foglio di carta e voilà, abbiamo capito se 0 è master o slave.

Per sicurezza digitiamo

ATIFlash -cb 1

Questo checksum deve ovviamente corrispondere all'altro checsum che abbiamo segnato sul foglietto di carta.
Nel caso abbiamo tre adattatori dobbiamo digitare anche:

ATIFlash -cb 2

e così via se abbiamo più adattatori fino ad associare correttamente il numero dell'adattatore alla master e alla slave.
Ok, supponiamo che lo 0 è la master, e l'1 è la slave (E' SOLO UN ESEMPIO...).
Per flashare il bios della master digitiamo:

ATIFlash -p 0 master_m.bin

Al termine del flash ATIFlash chiederà di riavviare....NON RIAVVIATE.
Non rimane che flashare la slave:

ATIFlash -p 1 slave_m.bin

A questo punto, a flash terminato, è possibile riavviare.

Ok, questa è la guida, e mi raccomando se siete anche insicuri allo 0.0001 % di qualche passaggio, non procedete al flash.
Inoltre vi ricordo che il flash del bios è comunque un procedimento non sicuro al 100 %, un UPS ad esempio è raccomandabile.
Se qualcosa andasse storto, non disperate,il bios di una scheda video si può sempre recuperare bootando il pc con una sceda video pci.

direi di ottimo aiuto e da mettere in prima pagina

Freed
24-08-2008, 15:07
ti farebbe schifo giocare a grid, far cry2, undercover con dettagli massimi e framerate mostruosi con AA attivo?

Parto dalla tua affermazione per riproporre una mi riflessione gia fatta nel 3d di attesa della scheda...non prenderlo come un attacco eh...

I giochi normali di oggi girano tutti con settaggi e AA massimi a 1920 con una 4870-512 e un buon hw in accompagnamento. E in questi giochi normali ci metto anche il citato GRID, o altri titoli che a livello grafico non sono certo da sottovalutare, vedi COD4.

Bisogna però rendersi conto che il maledetto Crysis è fuori parametro in termini di risorse richieste..la sua superiorità tecnica è evidente, ma non tale da giustificare il gap di prestazioni che intercorre tra un COD4 a 1920 con filtri e dettagli al massimo e un Crysis a risoluzione inferiore con dettagli dx9, antialiasing assolutamente disattivato e framerate che ci fa storcere il naso quando magari ci voltiamo verso un'area aperta o una distesa costiera.

Possiamo dire che è programmato male, o come invece comincio a sospettare che la corsa agli upgrade che ha scatenato Crysis sia stata in parte ricercata proprio per soddisfare le esigenze dei produttori hardware. Fatto sta che questo gioco sta stupidamente facendo cambiare PC a mezzo mondo perchè ci siamo fissati al punto da non accorgerci che le nostre schede di fascia alta o medio-alta fanno letteralmente volare i giochi normali, ma sono impotenti davanti al CryEngine2, lasciandoci quella insoddisfazione che ci spinge a cercare qualcosa di più a costi esorbitanti.

Sarei curioso di sapere come sarebbero oggi le configurazioni dei nostri PC se Crysis non fosse mai uscito. Probabilmente questa x2 sarebbe interessata a meno della metà della gente che è qui oggi.




Concludendo credo che in fondo sia molto meglio prendere una scheda di fascia alta come la 4870 liscia che ha un rapporto qualità prezzo ottimo, tenersi in tasca per qualche mesi i soldi risparmiati rispetto alla X2 per poi tirarli fuori quando uscirà la nuova scheda che sarà superiore anche in configurazione singola (e che forse farà girare quasi perfettamente Crysis).

Certo, così si è costretti a stare qualche mese con una misera 4870, che farà girare tutto benissimo tranne 1 o 2 titoli con qualche compromesso...Dopotutto quelli a cui interessa veramente giocare si fanno pochi problemi di come si vede il gioco, preferiscono che sia divertente, ma noi sappiamo di non appartenere a questa categoria.

sagge90
24-08-2008, 15:17
Dopotutto quelli a cui interessa veramente giocare si fanno pochi problemi di come si vede il gioco, preferiscono che sia divertente, ma noi sappiamo di non appartenere a questa categoria.

Infatti quelli si fanno le consolle, il pc non sanno manco cosè!:asd:

Cmq quoto in pieno quello che dici.:cincin:

Ah.. per il discorso precedente sull'accoppiata vga + monitor io personalmente prediligo la fluidità piuttosto che la definizione data da filtri su filtri, motivo per il quale sostenevo che non era uno spreco accoppiare Gtx280 a 22" piuttosto che ad un 24" sul quale, personalmente, metterei solo una 4870x2 data l'evidente superiorità. (che tra l'altro non posso permettermi..:().

magnusll
24-08-2008, 15:48
No, non sono d'accordo. Hai avuto modo di leggere ed analizzare le righe di codice di crysis? Smettiamola di dire che è stato scritto "a cazzo di cane" (senza portare valide argomentazioni), sicuramente il codice avrà delle pecche, ma nessun software è perfetto. Il tuo esempio è fuori luogo, il motore di Crysis è molto complesso ma sicuramente non è stato scritto per girare lentamente. Anzi il motore è caratterizzato da un'elevata scalabilità e modularità, possono essere cambiate una grande quantità di impostazioni grafiche. Giocatelo con dettagli "medium" o "low" e vedrete che andrà una bomba, pure su hardware datato.

Il gioco, già con dettagli High, ha una qualità grafica mai vista, questo è indiscutibile. Porta inoltre moltissime innovazioni sotto il punto di vista grafico, ma anche nel comparto gameplay.

Il codice non l'ho letto io ma neanche tu. La differenza tra le nostre posizioni e' che mentre tu vai a fiducia sulla Crytek, io mi baso su un numero pressoche' infinito di recensioni pubblicate in rete, sulle riviste o dove ti pare che riportano TUTTE lo stesso risultato: Crysis non scala. Non importa quale ammontare di potenza bruta gli metti a disposizione, piu' di tanto non va.

E tanto per mettere i puntini sulle i: stiamo parlando di triplo SLI o quadruplo Crossfire di schede grafiche che sono due generazioni piu' avanti a quelle esistenti quando il motore era in sviluppo. A tirar fuori una qualita' grafica iperrealista presupponendo risorse elaborative infinite sono capaci tutti: basta che accumuli effetto su effetto, magari realizzato con qualche stupido algoritmo a forza bruta. Il trucco sta nel tirar fuori la stessa qualita' grafica quando poi devi far girare il programma sui computer realmente esistenti.

Che Crysis sia stato ottimizzato male e' assodato, non lo dico io bensi' il resto del mondo (e il suddetto resto del mondo si e' anche preoccupato di motivare la cosa con un' infinita' di test). Da qui a capire che come benchmark non e' indicativo (sia per la scarsa qualita' dell' ottimizzazione che per il fatto che il suddetto motore lo usa solo quel gioco e nessun altro, e addirittura persino il suo successore ne usera' uno diverso e rivisto proprio in seguito alle critiche che sono piovute addosso alla Crytek) mi pare che ci voglia poco.

Testare Crysis serve solo a capire come una scheda fa girare Crysis. Non serve ne' per misurare le prestazioni su altri giochi presenti (che utilizzano motori diversi e non hanno di questi problemi) ne' su eventuali giochi futuri (visto che nessun gioco in uscita utilizzera' quel particolare motore). E di certo non serve a misurare le caratteristiche di potenza elaborativa delle schede stesse.

b4stardo
24-08-2008, 16:03
Ragà ma su Pci-express 1.0 questa 4870x2 è castrata???

beppecir
24-08-2008, 18:24
Possiamo dire che è programmato male, o come invece comincio a sospettare che la corsa agli upgrade che ha scatenato Crysis sia stata in parte ricercata proprio per soddisfare le esigenze dei produttori hardware.

Mi sa che hai proprio ragione su questo punto, e penso anche che sia la stessa "filosofia" di Vista ;) ! Come SO è ben più pesante del vetusto ma sempreverde XP tantoché molti pc piuttosto limitati (dualcore fascia bassa/monocore + 1GB ram + schede video di almeno 2 anni fa o peggio con VGA integrate) si trovano a dover fare i conti con un vero e proprio macigno da gestire (se poi il sistema viene gestito su hd IDE invece che SATA la situazione diventa ancora più drammatica! :muro: ).
C'è il bisogno costante dei produttori di software e hardware di proporre continuamente novità atte ad alimentare la domanda del mercato senza che ce ne sia l'effettiva necessità di queste nuove offerte! E se servono espedienti come le DirectX 10 (quando le 9.0c rasentano l'eccellenza, almeno in prestazioni), Vista e Crysis per mettere in "crisi" i punti di riferimento trovati da noi utenti, per i produttori è solamente una vera manna! :doh:

Dobermann75
24-08-2008, 18:30
Ok, questa è la guida, e mi raccomando se siete anche insicuri allo 0.0001 % di qualche passaggio, non procedete al flash.
Inoltre vi ricordo che il flash del bios è comunque un procedimento non sicuro al 100 %, un UPS ad esempio è raccomandabile.
Se qualcosa andasse storto, non disperate,il bios di una scheda video si può sempre recuperare bootando il pc con una sceda video pci.

Ottimo lavoro Astaris, metto subito in prima pagina sezione mod ;)
Grazie ancora :)

matthi87
24-08-2008, 20:02
Ma si ragazzi su, tutta questa razionalità, ognuno si prende la scheda che gli compete, c'è chi spende 200 e chi spende 400. Il primo cambierà la scheda dopo 1 anno e il secondo più tardi, sono scelte.

Dopo 2 anni che avevo la 8800GTX (e che mi si è rotta :( ) ho deciso di prendere un'altra scheda potentissima che mi durerà, spero, altri 2 anni.

Sono scelte e tutte rispettabili :).

Ero attratto anche dalla 280GTX, però mi affascinava l'idea della doppia GPU e ho provato...spero mi vada bene

pioss~s4n
24-08-2008, 20:08
cut.

vero ma è tempo perso qui dentro, basta vedere l'età media. Non puoi togliere a certa gente il regalo di Natale dai..

/nick <Coro>: comprate comprate.. che Crysis andrà meglio

Manwë
24-08-2008, 20:08
dipende anche dalla risoluzione video alla quale si gioca, se giochi a 800x600 butti via i soldi comprando una 4870X2 :D

matthi87
24-08-2008, 20:19
dipende anche dalla risoluzione video alla quale si gioca, se giochi a 800x600 butti via i soldi comprando una 4870X2 :D

Chiaramente il mio post era molto "leggero", una cognizione di causa bisogna sempre tenerla :) Ma non mi sentirei di dire che a 1680x1050 è sprecata ecco

bluefrog
24-08-2008, 20:37
In settimana mi arriva la Sapphire. :)

beppecir
24-08-2008, 20:38
Chiaramente il mio post era molto "leggero", una cognizione di causa bisogna sempre tenerla :) Ma non mi sentirei di dire che a 1680x1050 è sprecata ecco

Sono anch'io di quest'idea! E' vero che la scheda oggetto del thread è più indicata a risoluzioni cinematografiche ma, nel futuro, sappiamo cosa succede: ogni scheda invecchia e ci sarà software che sarà in grado di impegnarla di più anche alle risoluzioni "umane" e questo fatto viene in contro a chi vuole una scheda che sia il più longeva possibile e desidera cambiare computer ogni 2/3 anni ma richiedendo comunque un bel po' di qualità grafica e prestazioni! ;)

matthi87
24-08-2008, 20:54
Sono anch'io di quest'idea! E' vero che la scheda oggetto del thread è più indicata a risoluzioni cinematografiche ma, nel futuro, sappiamo cosa succede: ogni scheda invecchia e ci sarà software che sarà in grado di impegnarla di più anche alle risoluzioni "umane" e questo fatto viene in contro a chi vuole una scheda che sia il più longeva possibile e desidera cambiare computer ogni 2/3 anni ma richiedendo comunque un bel po' di qualità grafica e prestazioni! ;)

La penso allo stesso modo :)

madeofariseo
24-08-2008, 20:57
scusate, una domanda con un 520W questa VGA non regge vero ???

ho un HX520 della corsair

bluefrog
24-08-2008, 20:59
Ragazzi una curiosità per chi ha la Sapphire, ma la ventola è nera o rossa?

Grazie. :)

michelgaetano
24-08-2008, 21:01
Nel senso che una 280gtx è sprecata a 1680x1050?

Sì, dal momento che a quella risoluzione vanno già fortissimo "semplici" HD4850, 9800gtx, oltre che le ben più potenti 4870 e gtx 260 :)

matthi87
24-08-2008, 21:07
Ragazzi una curiosità per chi ha la Sapphire, ma la ventola è nera o rossa?

Grazie. :)

Nera

Dobermann75
24-08-2008, 21:21
Catalyst 8.52.2 e usato l overdrive




Azzarola che temperature come caspita fai? io ho addirittura il case aperto e una ventola che spara aria sotto e una sopra la scheda :mbe: :mbe: :mbe:

Adesso in idle mi sta a circa 76 gradi con 23 gradi in stanza
ciao,
devi creare un buon flusso d'aria continuo con ventole da 120mm,
se vai nella sezione case, nella discussione dei lianli vedi un po di foto interne del mio, così capisci come fa a restare tutto bello fresco... peccato che poi fuori ci sia un caldo terribile, chiedi ad Amon :rotfl: :D

bluefrog
24-08-2008, 21:22
Nera

Ok bene, più bella e più aggressiva. ;)
Peccato solo che idle consumi così tanto (ignorando in full load).

Dobermann75
24-08-2008, 21:23
Si si proprio io!..se vuoi ti presento un paio di femminoni, poi prendiamo il mio jet e ce ne andiamo a festeggiare nella megavilla di Miami (coca, puttanoni e bella musica)

;)


Stupendo allora ci sono... prepara il jet :asd: :gluglu:

per lucigno-coso non mi esprimo ;)

Cooperdale
24-08-2008, 21:57
ciao,
devi creare un buon flusso d'aria continuo con ventole da 120mm,
se vai nella sezione case, nella discussione dei lianli vedi un po di foto interne del mio, così capisci come fa a restare tutto bello fresco... peccato che poi fuori ci sia un caldo terribile, chiedi ad Amon :rotfl: :D

Sì anch'io ho due pc dentro due case lian-li in alluminio full tower ed è come avere due stufe in piena estate. D'inverno viene comodo però ;).

al135
24-08-2008, 22:30
Il codice non l'ho letto io ma neanche tu. La differenza tra le nostre posizioni e' che mentre tu vai a fiducia sulla Crytek, io mi baso su un numero pressoche' infinito di recensioni pubblicate in rete, sulle riviste o dove ti pare che riportano TUTTE lo stesso risultato: Crysis non scala. Non importa quale ammontare di potenza bruta gli metti a disposizione, piu' di tanto non va.

E tanto per mettere i puntini sulle i: stiamo parlando di triplo SLI o quadruplo Crossfire di schede grafiche che sono due generazioni piu' avanti a quelle esistenti quando il motore era in sviluppo. A tirar fuori una qualita' grafica iperrealista presupponendo risorse elaborative infinite sono capaci tutti: basta che accumuli effetto su effetto, magari realizzato con qualche stupido algoritmo a forza bruta. Il trucco sta nel tirar fuori la stessa qualita' grafica quando poi devi far girare il programma sui computer realmente esistenti.

Che Crysis sia stato ottimizzato male e' assodato, non lo dico io bensi' il resto del mondo (e il suddetto resto del mondo si e' anche preoccupato di motivare la cosa con un' infinita' di test). Da qui a capire che come benchmark non e' indicativo (sia per la scarsa qualita' dell' ottimizzazione che per il fatto che il suddetto motore lo usa solo quel gioco e nessun altro, e addirittura persino il suo successore ne usera' uno diverso e rivisto proprio in seguito alle critiche che sono piovute addosso alla Crytek) mi pare che ci voglia poco.

Testare Crysis serve solo a capire come una scheda fa girare Crysis. Non serve ne' per misurare le prestazioni su altri giochi presenti (che utilizzano motori diversi e non hanno di questi problemi) ne' su eventuali giochi futuri (visto che nessun gioco in uscita utilizzera' quel particolare motore). E di certo non serve a misurare le caratteristiche di potenza elaborativa delle schede stesse.


ti quoto in toto.
basta co sto crysis , poi l'ho finito con la mia gloriosa 8800 e mi son pure divertito ma mo basta :D
fuori i giochi e benchmark seri plz

b4stardo
24-08-2008, 22:49
Ragà ma su pci-e 1.0 va bene?O si è limitati?

boscacci
24-08-2008, 23:06
Infatti, è proprio quello che penso anche io. Succede anche a tutti voi, con gli 8.8 ufficiali ?

Grazie mille!
Alex

UP!

matthi87
24-08-2008, 23:22
Ragà ma su pci-e 1.0 va bene?O si è limitati?

Perfettamente

madeofariseo
24-08-2008, 23:53
scusate, una domanda con un 520W questa VGA non regge vero ???

ho un HX520 della corsair

up

NvidiaMen
25-08-2008, 00:12
Il codice non l'ho letto io ma neanche tu. La differenza tra le nostre posizioni e' che mentre tu vai a fiducia sulla Crytek, io mi baso su un numero pressoche' infinito di recensioni pubblicate in rete, sulle riviste o dove ti pare che riportano TUTTE lo stesso risultato: Crysis non scala. Non importa quale ammontare di potenza bruta gli metti a disposizione, piu' di tanto non va.

E tanto per mettere i puntini sulle i: stiamo parlando di triplo SLI o quadruplo Crossfire di schede grafiche che sono due generazioni piu' avanti a quelle esistenti quando il motore era in sviluppo. A tirar fuori una qualita' grafica iperrealista presupponendo risorse elaborative infinite sono capaci tutti: basta che accumuli effetto su effetto, magari realizzato con qualche stupido algoritmo a forza bruta. Il trucco sta nel tirar fuori la stessa qualita' grafica quando poi devi far girare il programma sui computer realmente esistenti.

Che Crysis sia stato ottimizzato male e' assodato, non lo dico io bensi' il resto del mondo (e il suddetto resto del mondo si e' anche preoccupato di motivare la cosa con un' infinita' di test). Da qui a capire che come benchmark non e' indicativo (sia per la scarsa qualita' dell' ottimizzazione che per il fatto che il suddetto motore lo usa solo quel gioco e nessun altro, e addirittura persino il suo successore ne usera' uno diverso e rivisto proprio in seguito alle critiche che sono piovute addosso alla Crytek) mi pare che ci voglia poco.

Testare Crysis serve solo a capire come una scheda fa girare Crysis. Non serve ne' per misurare le prestazioni su altri giochi presenti (che utilizzano motori diversi e non hanno di questi problemi) ne' su eventuali giochi futuri (visto che nessun gioco in uscita utilizzera' quel particolare motore). E di certo non serve a misurare le caratteristiche di potenza elaborativa delle schede stesse.

Crysis non scala in quanto, a differenza di tutti gli ultimi games, non utilizza per il calcolo fisico l'Havok FX (che, sviluppato attraverso la collaborazione con Intel, scala perfettamente su piattaforme multicores), ma un motore interno integrato al CryEngine 2 che sembrerebbe sfruttare solo un core.
In Crysis Warhead i programmatori della Crytek dovrebbero implementare una versione rinnovata e più ottimizzata di questo accuratissimo (nella fedeltà dei modelli fisici riprodotti) motore danda la possibilità al processore di essere più libero nella gestione dell'overhead a supporto della costruzione degli oggetti 3D.

Freed
25-08-2008, 01:41
dovrebbero implementare una versione rinnovata e più ottimizzata di questo accuratissimo (nella fedeltà dei modelli fisici riprodotti) motore


Io ci avrò giocato un'ora ametto, ma questa accuratezza si è fermata appena ho provato a mettere due barili esplosivi su di un pickup per fare una macchina bomba da lanciare contro il nemico.

Appena posato il secondo e provato a spostare il mezzo che non ha fatto un centimetro i barili hanno iniziato a rimbalzare nel cassone in un moto perpetuo senza alcun senso. Alla fine il pickup si è danneggiato per il movimento dei barili ed è saltato in aria..
Non ci avrà mai provato nessuno in Crytec? Dovevo fare il betatester ;)

:)

E' solo un episodio, non valuto certo da questo, immagino quanto altro "buono" ci sia sotto alcuni bachi, anche se ammetto che mi ha deluso molto questa situazione, un po' come constatare che le "non palme" non si possono rompere..mi ha fatto sembrare il tutto più finto...


Vabbè, siamo OT, quello che mi chiedevo è: il tanto collaudato (e a mio avviso ottimo) Havok non sarebbe bastato?

Inoltre anche diminuendo l'accuratezza fisica non mi pare che si alleggerisca molto, secondo me è proprio tutto bello massiccio da smuovere!

Imho ci sono troppe foglie :) dovevano farlo su un'isola di piante a foglie caduche in pieno inverno :D



P.S.
Non trovate che il fatto che nelle discussioni di GPU si finisca a parlare sempre e solo di Crysis dal punto di vista tecnico sia un po' sintomatico e la dica tutta sull'attuale situazione? :D

Freed
25-08-2008, 01:52
scusate, una domanda con un 520W questa VGA non regge vero ???

ho un HX520 della corsair

Dipende anche da quanto lo sfrutti.

Tipo: OC? Numero HD, ventole, etc..?

Non sono un esperto di alimentatori ma essendo di marca se non è stressato da altre cose credo che una prova per vedere come si comporta la si potrebbe fare...magari non escludendo eventuale sostituzione...


Cmq ti conviene aspettare qualche opinione più esperta...

raph45
25-08-2008, 03:47
Dipende anche da quanto lo sfrutti.

Tipo: OC? Numero HD, ventole, etc..?

Non sono un esperto di alimentatori ma essendo di marca se non è stressato da altre cose credo che una prova per vedere come si comporta la si potrebbe fare...magari non escludendo eventuale sostituzione...


Cmq ti conviene aspettare qualche opinione più esperta...

L'hx520 è della corsair che è ottimo, io invece ho un corsar tx650 650 watt, dite che con un q9450 overcloccato e overvoltato, 2 hdd sata, 2 master dvd (1 ide 1 sata), una scheda audio montati su asus p5q deluxe riesco a fare overclock della 4870x2 se la prendo???

Cooperdale
25-08-2008, 04:53
L'hx520 è della corsair che è ottimo, io invece ho un corsar tx650 650 watt, dite che con un q9450 overcloccato e overvoltato, 2 hdd sata, 2 master dvd (1 ide 1 sata), una scheda audio montati su asus p5q deluxe riesco a fare overclock della 4870x2 se la prendo???

Prova a vedere con un psu calculator. A me con il sistema che ho adesso il calculator consiglia un alimentatore di 983 Watt, però nel mio case manca solo una fornace nucleare...

raph45
25-08-2008, 05:32
Prova a vedere con un psu calculator. A me con il sistema che ho adesso il calculator consiglia un alimentatore di 983 Watt, però nel mio case manca solo una fornace nucleare...

guarda ne ho trovato uno, ma manca la 4870x2, quindi ho fatto il calcolo senza scheda video con overclock della cpu e sto sui 360 watt, ora ho letto su anandtech che la 4870x2 in idle consuma 250 watt, ma in full load ne consuma un 450, e già così starei cmq fuori, quindi mi sa che l'ali ci vuole da almeno 1000 watt, overclock o no della scheda video.

M4R1|<
25-08-2008, 07:56
Il codice non l'ho letto io ma neanche tu. La differenza tra le nostre posizioni e' che mentre tu vai a fiducia sulla Crytek, io mi baso su un numero pressoche' infinito di recensioni pubblicate in rete, sulle riviste o dove ti pare che riportano TUTTE lo stesso risultato: Crysis non scala. Non importa quale ammontare di potenza bruta gli metti a disposizione, piu' di tanto non va.

E tanto per mettere i puntini sulle i: stiamo parlando di triplo SLI o quadruplo Crossfire di schede grafiche che sono due generazioni piu' avanti a quelle esistenti quando il motore era in sviluppo. A tirar fuori una qualita' grafica iperrealista presupponendo risorse elaborative infinite sono capaci tutti: basta che accumuli effetto su effetto, magari realizzato con qualche stupido algoritmo a forza bruta. Il trucco sta nel tirar fuori la stessa qualita' grafica quando poi devi far girare il programma sui computer realmente esistenti.

Che Crysis sia stato ottimizzato male e' assodato, non lo dico io bensi' il resto del mondo (e il suddetto resto del mondo si e' anche preoccupato di motivare la cosa con un' infinita' di test). Da qui a capire che come benchmark non e' indicativo (sia per la scarsa qualita' dell' ottimizzazione che per il fatto che il suddetto motore lo usa solo quel gioco e nessun altro, e addirittura persino il suo successore ne usera' uno diverso e rivisto proprio in seguito alle critiche che sono piovute addosso alla Crytek) mi pare che ci voglia poco.

Testare Crysis serve solo a capire come una scheda fa girare Crysis. Non serve ne' per misurare le prestazioni su altri giochi presenti (che utilizzano motori diversi e non hanno di questi problemi) ne' su eventuali giochi futuri (visto che nessun gioco in uscita utilizzera' quel particolare motore). E di certo non serve a misurare le caratteristiche di potenza elaborativa delle schede stesse.

assolutamente da quotare ;)

Crysis non scala in quanto, a differenza di tutti gli ultimi games, non utilizza per il calcolo fisico l'Havok FX (che, sviluppato attraverso la collaborazione con Intel, scala perfettamente su piattaforme multicores), ma un motore interno integrato al CryEngine 2 che sembrerebbe sfruttare solo un core.
In Crysis Warhead i programmatori della Crytek dovrebbero implementare una versione rinnovata e più ottimizzata di questo accuratissimo (nella fedeltà dei modelli fisici riprodotti) motore danda la possibilità al processore di essere più libero nella gestione dell'overhead a supporto della costruzione degli oggetti 3D.

NvidiaMan io sinceramente nn credo che sia un problema di sola fisica, oppure dici che quello è uno dei maggiori?

Cooperdale
25-08-2008, 08:07
guarda ne ho trovato uno, ma manca la 4870x2, quindi ho fatto il calcolo senza scheda video con overclock della cpu e sto sui 360 watt, ora ho letto su anandtech che la 4870x2 in idle consuma 250 watt, ma in full load ne consuma un 450, e già così starei cmq fuori, quindi mi sa che l'ali ci vuole da almeno 1000 watt, overclock o no della scheda video.

Ma penso che i test della anandtech facciano riferimento al consumo di tutto il sistema. Un sistema molto basico probabilmente. Perché 450 mi sembra un'esagerazione per la sola scheda.

gup133
25-08-2008, 08:16
Sono alla continua ricerca di verificare che le prestazioni del mio sistema siano in linea, mi date una mano?
Ho lanciato un 3dmark, con gli 8.8 ufficiali, sotto XP, il risultato è stato poco più di 16.000, con tutti i filtri attivi (AA 8x e AF 16X). Non so, il risultato mi ha deluso parecchio. Più o meno i vostri risultati, sotto XP, quali sono?


ps: il mio sistema è composto da: QX9650, 4870X2, 4gb DDR3 1600, Raptor 10k 150Gb, i790ultra, Tagan Piperock 1300w.

sickofitall
25-08-2008, 08:21
Sono alla continua ricerca di verificare che le prestazioni del mio sistema siano in linea, mi date una mano?
Ho lanciato un 3dmark, con gli 8.8 ufficiali, sotto XP, il risultato è stato poco più di 16.000, con tutti i filtri attivi (AA 8x e AF 16X). Non so, il risultato mi ha deluso parecchio. Più o meno i vostri risultati, sotto XP, quali sono?


ps: il mio sistema è composto da: QX9650, 4870X2, 4gb DDR3 1600, Raptor 10k 150Gb, i790ultra, Tagan Piperock 1300w.

io con un q9450 default e senza filtri faccio 15.500 circa, sicuramente sono cpu limited alla grande

zorco
25-08-2008, 08:27
Ma penso che i test della anandtech facciano riferimento al consumo di tutto il sistema. Un sistema molto basico probabilmente. Perché 450 mi sembra un'esagerazione per la sola scheda.
esatto,difatti i consumi effettivi della sola scheda si aggirano intorno a 264 in full come dimostano le analisi strumentatili realizzate da xbitlabs:
http://www.pctunerup.com/up//results/_200808/20080825092415_4870x2_power.gif

;)

gup133
25-08-2008, 08:37
io con un q9450 default e senza filtri faccio 15.500 circa, sicuramente sono cpu limited alla grande

La cpu a quanto la tieni? io a 4000 (380x10,5).

sickofitall
25-08-2008, 08:45
La cpu a quanto la tieni? io a 4000 (380x10,5).

è a default, cioè 2666

i 15.500 sono fatti con vista, che si mangia di sicuro almeno 1000 punti

ho rifatto il test con i filtri uguale a te, ho preso 14.400

jaiss69
25-08-2008, 08:53
Scusate la domanda,per non avere problemi per testare Crysis (nel senso che mi rilevi correttamente la scheda) devo aggiornarlo con le patch o dovrebbe andare bene anche senza?

Grazie!

gup133
25-08-2008, 08:53
è a default, cioè 2666

i 15.500 sono fatti con vista, che si mangia di sicuro almeno 1000 punti

ho rifatto il test con i filtri uguale a te, ho preso 14.400

mmm, quindi più o meno ci siamo...Devo ancora provare Vista 64, poi saprò essere più preciso, la sensazione è che soffra terribilmente in dx9, mentre in dx10 va molto molto bene.

Wikkle
25-08-2008, 09:21
bellissima..... quasi quasi passo ad ati :read:


per l'alimentatore basta un 600w?

Manwë
25-08-2008, 09:27
bellissima..... quasi quasi passo ad ati :read:


per l'alimentatore basta un 600w?

dopo 4 anni con 3dfx e 7 anni con nvidia sono passato a AMD/ATI in quanto questa scheda casca giusto in un momento di passaggio tra una gen e l'altra e ad un prezzo (390€) decisamente :sbav: :sbav:

sickofitall
25-08-2008, 09:46
bellissima..... quasi quasi passo ad ati :read:


per l'alimentatore basta un 600w?

certo, regge alla grande

al135
25-08-2008, 09:52
Scusate la domanda,per non avere problemi per testare Crysis (nel senso che mi rilevi correttamente la scheda) devo aggiornarlo con le patch o dovrebbe andare bene anche senza?

Grazie!

metti ovviamente l'ultima patch disponibile. mi sembra 1.2

robertoldo77
25-08-2008, 10:21
scusate il disturbo ma sono in procinto di prendere un altra scheda video.

la uso unicamente per crysis e altri giohi che dovranno uscire. solamente mi pongo questo problema.

la 4870x2 è sicuramente + performante della gtx280 ma come la mettiamo con il fatto che non supporta le applicazioni fisiche che ha invece la nvidia?

Dobermann75
25-08-2008, 10:34
up
E' un rischio, poi dipende dal resto dell'hw... con q6600 con un pelo di overclock si è al limite, l'alimentatore al limite non dura molto oltre che a scaldare di brutto.
ciao

gup133
25-08-2008, 10:53
Ragazzi mi aiutate un attimo perchè mi sto perdendo (vengo dal mondo nvidia che è leggermente diverso....):

Con Gpuz 0.2.7 come facci oa vedere se è correttamente abilitato il Crossfire? Mi spiego meglio, che voce troverò sotto gpuz? Sareste così gentili da postarmi l'immagine?

Grazie a tutti.

al135
25-08-2008, 10:58
scusate il disturbo ma sono in procinto di prendere un altra scheda video.

la uso unicamente per crysis e altri giohi che dovranno uscire. solamente mi pongo questo problema.

la 4870x2 è sicuramente + performante della gtx280 ma come la mettiamo con il fatto che non supporta le applicazioni fisiche che ha invece la nvidia?

allo stesso piano di come non ci siano giochi che supportano physix finora ;)
magari in un futuro se ne riparlerà

EmperoR
25-08-2008, 11:21
Sono alla continua ricerca di verificare che le prestazioni del mio sistema siano in linea, mi date una mano?
Ho lanciato un 3dmark, con gli 8.8 ufficiali, sotto XP, il risultato è stato poco più di 16.000, con tutti i filtri attivi (AA 8x e AF 16X). Non so, il risultato mi ha deluso parecchio. Più o meno i vostri risultati, sotto XP, quali sono?


ps: il mio sistema è composto da: QX9650, 4870X2, 4gb DDR3 1600, Raptor 10k 150Gb, i790ultra, Tagan Piperock 1300w.

Sotto vista anche io faccio circa 16000 con tutti i filtri attivi ma con aa16x e af16x, non ricordo la risoluzione xò, mi sa che era a 1600*1200
oggi ne provo uno col monitor nuovo (mannaggia a me ho preso il samsun bw223 che risoluzione massima ha 1680*1050, na cagata)
Il mio vecchio crt da 19'' girava anche a 1900*1200....)
E.

EmperoR
25-08-2008, 11:38
A me cmq sembra che grid non mi abiliti l' aa, possibile sia solo un effetto del monitor a 1680*1050, non cambia una cippa sia con aa0 che con aa16x....
Bo....
Poi ho notato che pes08 con questo monitor non posso mandarlo oltre i 1280*1024, ma che roba è?
CRT....piangoooo, sto bw223 mi stà già sulle wollas....
Cmq ho provato gli 8.8 ufficiali ed erano troppo instabili, son ritornato al volo con gli 8.54
Ho cambiato la pasta termoconduttiva dei 2 core della 4870x2 sostituendola con la geil all' oro, adesso in full non sale + di 68°, la gpu slave sta sui 39° ed in full max 50°, con temperatura ambientè intorno ai 30°, ventola al 50%.
Consiglio di non sostituire i pad termoconduttivi del bridge e delle ram in quanto non verrebbero bene a contatto col dissì stesso essendoci troppa distanza.
E.

okorop
25-08-2008, 11:40
A me cmq sembra che grid non mi abiliti l' aa, possibile sia solo un effetto del monitor a 1680*1050, non cambia una cippa sia con aa0 che con aa16x....
Bo....
Poi ho notato che pes08 con questo monitor non posso mandarlo oltre i 1280*1024, ma che roba è?
CRT....piangoooo, sto bw223 mi stà già sulle wollas....
E.

devi abbassare il refresh a 59 e poi ti va a 1680x1050 :)

Andrea deluxe
25-08-2008, 11:56
A me cmq sembra che grid non mi abiliti l' aa, possibile sia solo un effetto del monitor a 1680*1050, non cambia una cippa sia con aa0 che con aa16x....
Bo....
Poi ho notato che pes08 con questo monitor non posso mandarlo oltre i 1280*1024, ma che roba è?
CRT....piangoooo, sto bw223 mi stà già sulle wollas....
Cmq ho provato gli 8.8 ufficiali ed erano troppo instabili, son ritornato al volo con gli 8.54
Ho cambiato la pasta termoconduttiva dei 2 core della 4870x2 sostituendola con la geil all' oro, adesso in full non sale + di 68°, la gpu slave sta sui 39° ed in full max 50°, con temperatura ambientè intorno ai 30°, ventola al 50%.
Consiglio di non sostituire i pad termoconduttivi del bridge e delle ram in quanto non verrebbero bene a contatto col dissì stesso essendoci troppa distanza.
E.

per grid penso sia un problema di driver....

per pes 2008 vai sul th ufficiale e trovi la patch per abilitare il wide in prima pagina!

b4stardo
25-08-2008, 11:56
Ragà, a sta 4870x2 allora come si comporta sul bus pci-e 1.0???

matthi87
25-08-2008, 11:59
Ragà, a sta 4870x2 allora come si comporta sul bus pci-e 1.0???

Identico che sul 2.0

Dobermann75
25-08-2008, 12:21
Ragazzi mi aiutate un attimo perchè mi sto perdendo (vengo dal mondo nvidia che è leggermente diverso....):

Con Gpuz 0.2.7 come facci oa vedere se è correttamente abilitato il Crossfire? Mi spiego meglio, che voce troverò sotto gpuz? Sareste così gentili da postarmi l'immagine?

Grazie a tutti.
beh non è che cambi molto in questo senso...
basta leggere i dati nella schermata di gpuz, nello specifico l'ultima linea in basso di dati ;)

http://img253.imageshack.us/img253/4076/4pgdq9.png

b4stardo
25-08-2008, 12:31
Identico che sul 2.0

Sicuro? Siccome leggevo che niente di meno hanno messo un canale di comunicazione interno tra le 2 gpu, se il bus pci-e non dovesse bastare....questo mi farebbe pensare che già si potrebbero avere problemi col pci-e 2.0

gup133
25-08-2008, 12:34
beh non è che cambi molto in questo senso...
basta leggere i dati nella schermata di gpuz, nello specifico l'ultima linea in basso di dati ;)

http://img253.imageshack.us/img253/4076/4pgdq9.png

Ho anche io la stessa dicitura, però mi viene il dubbio per la questione del sideport Off. Più che altro non riesco a capire perchè questo gap, tra i miei test (benchè fatti impostando max quality) e quelli di questo link:

http://www.gpforums.co.nz/showthread.php?s=&postid=5385101


Si parla di 21000, ma non specificano con che impostazioni. stasera provo a mettere tutto su performance e vediamo.
Emperor che nforce usi? io gli ultimi, ma a naso penso andassero meglio i 9.64.

Dobermann75
25-08-2008, 13:16
Ho anche io la stessa dicitura, però mi viene il dubbio per la questione del sideport Off. Più che altro non riesco a capire perchè questo gap, tra i miei test (benchè fatti impostando max quality) e quelli di questo link:

http://www.gpforums.co.nz/showthread.php?s=&postid=5385101


Si parla di 21000, ma non specificano con che impostazioni. stasera provo a mettere tutto su performance e vediamo.
Emperor che nforce usi? io gli ultimi, ma a naso penso andassero meglio i 9.64.

in quel forum non parlano di 21000... mi apre, ma negli screen a 1280 (quindi test a default) passa i 19000...
inoltre se guardate bene le immagini l'oc che crede di aver fatto... non esiste, infatti i catalist in fondo anche se lui ha settato frequenze differenti riportano come masisma la frequenza di targa...
Sono test che ho già fatto e con i catalist non si riesce ad overcloccare nulla... bisonga attendere o rivatuner compatibile o ati tray tool comaptibile.

io i 21K li ho passati, http://img93.imageshack.us/my.php?image=cattura5avg1.jpg
ciao

major1977
25-08-2008, 13:38
raga un enermax liberty da 620 riesce a supportare questo mostro di potenza bruta?:stordita:

gup133
25-08-2008, 13:42
in quel forum non parlano di 21000... mi apre, ma negli screen a 1280 (quindi test a default) passa i 19000...
inoltre se guardate bene le immagini l'oc che crede di aver fatto... non esiste, infatti i catalist in fondo anche se lui ha settato frequenze differenti riportano come masisma la frequenza di targa...
Sono test che ho già fatto e con i catalist non si riesce ad overcloccare nulla... bisonga attendere o rivatuner compatibile o ati tray tool comaptibile.

io i 21K li ho passati, http://img93.imageshack.us/my.php?image=cattura5avg1.jpg
ciao

E' proprio questo che mi da da pensare, tu i 21000 come li hai raggiunti? che impostazioni avev imesso ai Catalyst?

webbuffa
25-08-2008, 13:43
raga un enermax liberty da 620 riesce a supportare questo mostro di potenza bruta?:stordita:

:cool: Certamente, e senza nessun problema :D

Dobermann75
25-08-2008, 13:53
E' proprio questo che mi da da pensare, tu i 21000 come li hai raggiunti? che impostazioni avev imesso ai Catalyst?
e che impostazioni vuoi mettere nei catalyst, forse credi che portino via molti punti settando in modo particolare?
basta che lasci che i filtri vengano ripresi dall'applicazione in modo che puoi settare i giochi o i bnechmark senza l'intervento dei catalist.

Prova ad esempio a fare un 3dmark06 a default (1280 senza filtri) e posta la schermata con cpuz e gpuz aperti, ovviamente aprili dopo il test...
e poi fanne uno alla risoluzione del tuo monitor con attivati i filtri e posta anche quest'altro...
ciao

major1977
25-08-2008, 14:01
:cool: Certamente, e senza nessun problema :D

grazie! ;) ..infine un 500 liberty è praticamente impossibile vero?

michelgaetano
25-08-2008, 14:07
grazie! ;) ..infine un 500 liberty è praticamente impossibile vero?

direi che è meglio abbondare ^^"

robertoldo77
25-08-2008, 14:08
salve vorrei chiedervi se con il mio ali della termaltake toughpower da 750 watt posso farla girare tranquillamente.

e poi volevo chiedervi se con la mia cpu e6700@3,00G core 2 duo potrei limitare questa bestia.

ho acquistato una gtx280 ma ha problemi e me la riprendono indietro quindi ora mi ero mezzo invogliato della 4780x2.
che ne dite mi conviene fare il passaggio nvidia ati?

grazie anticipatamente.

Manwë
25-08-2008, 14:35
grazie! ;) ..infine un 500 liberty è praticamente impossibile vero?

guarda il problema è dato più che altro dalla presenza del connettore 8pin PCI-E
che praticamente manca nel 90% degli alimentatori in commercio, gli unici che ce l'hanno sono nuovi e di potenza superiore ai 650W, quindi devi comunque cambiare alimentatore se vuoi usare una 4780X2

webbuffa
25-08-2008, 14:36
grazie! ;) ..infine un 500 liberty è praticamente impossibile vero?

:) il 500 la regge... naturalmente dipende da quanto oc si fa :D

robertoldo77
25-08-2008, 14:48
guarda il problema è dato più che altro dalla presenza del connettore 8pin PCI-E
che praticamente manca nel 90% degli alimentatori in commercio, gli unici che ce l'hanno sono nuovi e di potenza superiore ai 650W, quindi devi comunque cambiare alimentatore se vuoi usare una 4780X2

cmq l'adattatore da 8 pin lo puoi fare con 2 da 6 pin

al135
25-08-2008, 14:50
salve vorrei chiedervi se con il mio ali della termaltake toughpower da 750 watt posso farla girare tranquillamente.

e poi volevo chiedervi se con la mia cpu e6700@3,00G core 2 duo potrei limitare questa bestia.

ho acquistato una gtx280 ma ha problemi e me la riprendono indietro quindi ora mi ero mezzo invogliato della 4780x2.
che ne dite mi conviene fare il passaggio nvidia ati?

grazie anticipatamente.

mah... se non ti costasse proprio nulla o quasi potresti altrimenti non ti conviene a meno che tu non abbia un 24" o piu

Dobermann75
25-08-2008, 15:11
salve vorrei chiedervi se con il mio ali della termaltake toughpower da 750 watt posso farla girare tranquillamente.

e poi volevo chiedervi se con la mia cpu e6700@3,00G core 2 duo potrei limitare questa bestia.

ho acquistato una gtx280 ma ha problemi e me la riprendono indietro quindi ora mi ero mezzo invogliato della 4780x2.
che ne dite mi conviene fare il passaggio nvidia ati?

grazie anticipatamente.
si, il tuo ali regge senza problemi...

io lo farei il passaggio, così hai provato entrambe :D

LEONARDO4076
25-08-2008, 16:25
Ciao ragazzi. Io ho l'ali in firma: un ENERMAX Noisetaker II da 600W. Ha due connettori PCI- Ex a 6 pin. Che dite la regge una scheda così? Fatemi sapere!

Ciauz!:)

Manwë
25-08-2008, 16:47
Ciao ragazzi. Io ho l'ali in firma: un ENERMAX Noisetaker II da 600W. Ha due connettori PCI- Ex a 6 pin. Che dite la regge una scheda così? Fatemi sapere!

Ciauz!:)

servono 1 connettore 6pin + 1 connettore 8pin
io ho fatto ponte alle masse su un molex :)
spero regga sino all'arrivo della nuova PSU da 1KW :asd:

padsi
25-08-2008, 17:03
Ordinata oggi la sapphire 4870x2 domani pome la vado a ritirare:) poi iniziero' a smanettarci ^^

matthi87
25-08-2008, 17:26
Ordinata oggi la sapphire 4870x2 domani pome la vado a ritirare:) poi iniziero' a smanettarci ^^

Auguri comincio ad incrociare le dita per te ;)

gup133
25-08-2008, 17:41
Era proprio un problema di settaggi, appena ho impostato i catalyst su performance ho superato i 22:

http://img60.imageshack.us/img60/7357/4870x2catalyst88xpoz3.th.jpg (http://img60.imageshack.us/my.php?image=4870x2catalyst88xpoz3.jpg)


Ora provo a fare un bench su vista 64, vediamo cosa si tira fuori!:)

Cooperdale
25-08-2008, 19:12
Ho cambiato la pasta termoconduttiva dei 2 core della 4870x2 sostituendola con la geil all' oro, adesso in full non sale + di 68°, la gpu slave sta sui 39° ed in full max 50°, con temperatura ambientè intorno ai 30°, ventola al 50%.
Consiglio di non sostituire i pad termoconduttivi del bridge e delle ram in quanto non verrebbero bene a contatto col dissì stesso essendoci troppa distanza.
E.

C'è una guida da qualche parte su come cambiare la pasta termoconduttiva su questa scheda?

Manwë
25-08-2008, 19:40
C'è una guida da qualche parte su come cambiare la pasta termoconduttiva su questa scheda?


smonti il dissipatore
pulisci i chippozzi dalla pastella made in AMD
spalmi un velo della tua pasta termoconduttiva
rimonti il dissipatore

simone1974
25-08-2008, 20:00
Vi ricordate che vi avevo detto che il mio ali (lc power green 550) teneva botta?
Ovviamente ciò era vero per il 2d non per il 3d ;)
Domani andrò a ritirare il materiale rimanente. Non vedo l'ora di testare a dovere la bestiolina :)

smoicol
25-08-2008, 20:13
Era proprio un problema di settaggi, appena ho impostato i catalyst su performance ho superato i 22:

http://img60.imageshack.us/img60/7357/4870x2catalyst88xpoz3.th.jpg (http://img60.imageshack.us/my.php?image=4870x2catalyst88xpoz3.jpg)


Ora provo a fare un bench su vista 64, vediamo cosa si tira fuori!:)

che driver hai usato e che impostazioni hai modificato?

Dobermann75
25-08-2008, 20:22
Era proprio un problema di settaggi, appena ho impostato i catalyst su performance ho superato i 22:

http://img60.imageshack.us/img60/7357/4870x2catalyst88xpoz3.th.jpg (http://img60.imageshack.us/my.php?image=4870x2catalyst88xpoz3.jpg)


Ora provo a fare un bench su vista 64, vediamo cosa si tira fuori!:)
ottimo, peccato che perdi qualcosa sull' HDR.. ma credo sia un problema dei cat. 8.8, su vista già con i beta riscontravo delle perdite evidenti di potenza...


Fai anche lo screen di vista, per vedere quanto si ciucia il s.o. sulla stessa macchina, magari fai il test con gli 8.8 anche lì.
ciao

Dobermann75
25-08-2008, 20:23
che driver hai usato e che impostazioni hai modificato?
sono gli 8.8 lo vedi nello screen di gpuz
ciao

Timon85
25-08-2008, 20:32
salve a tutti!! Qualcuno mi sa dire qualche punteggiuo al 3dmark 06 con questa scheda? so che centra tanto la cpu anche.. ma mi serve xchè devo fare un paragone... io ho un phenom 9950 b.e @ 3.00 Ghz, e devo testare 2 4870 x2 in crossfire :D:D
il mio punteggio nn mi sembra molto ragionevole anzi....
arrivo a quasi 17.000 punti con il cross.. x voi sono pochi?
forse questi driver nn supportano ancora bene un crossfire con queste 2 schede video....

smoicol
25-08-2008, 20:46
sono gli 8.8 lo vedi nello screen di gpuz
ciao

vero non avevo visto,
però lui parla di settare, se può dirci esattamente cosa, non credo che ha selezionato solo performance

smoicol
25-08-2008, 20:49
salve a tutti!! Qualcuno mi sa dire qualche punteggiuo al 3dmark 06 con questa scheda? so che centra tanto la cpu anche.. ma mi serve xchè devo fare un paragone... io ho un phenom 9950 b.e @ 3.00 Ghz, e devo testare 2 4870 x2 in crossfire :D:D
il mio punteggio nn mi sembra molto ragionevole anzi....
arrivo a quasi 17.000 punti con il cross.. x voi sono pochi?
forse questi driver nn supportano ancora bene un crossfire con queste 2 schede video....

17000 con 2 4870x2 ???
se è cosi sei fermo di cpu, anche se tra una e due non c'è molta differenza, almeno nei test cosi sembra, io pure ero interessato a 2 4870x2, ma realmente già una non la si sfrutta a parte avere un 42pollici

al135
25-08-2008, 20:53
salve a tutti!! Qualcuno mi sa dire qualche punteggiuo al 3dmark 06 con questa scheda? so che centra tanto la cpu anche.. ma mi serve xchè devo fare un paragone... io ho un phenom 9950 b.e @ 3.00 Ghz, e devo testare 2 4870 x2 in crossfire :D:D
il mio punteggio nn mi sembra molto ragionevole anzi....
arrivo a quasi 17.000 punti con il cross.. x voi sono pochi?
forse questi driver nn supportano ancora bene un crossfire con queste 2 schede video....

ne fanno oltre 20000 con una... hai qualche problema. forse è la cpu o qualche driver non settato bene, oltre ch eil CF.. poi vabbè il 3dmerd nn vale una cippa. testalo con i giochi.

Timon85
25-08-2008, 20:54
17000 con 2 4870x2 ???
se è cosi sei fermo di cpu, anche se tra una e due non c'è molta differenza, almeno nei test cosi sembra, io pure ero interessato a 2 4870x2, ma realmente già una non la si sfrutta a parte avere un 42pollici

per sfizio ho tolto una scheda.... 15730 3dmark 06! :rolleyes:
La cpù si è un pò ferma... :D anche se è a 3 Ghz! veramente pochissimo...
Io spero chesia un problema di driver... anche se alla risoluzione del test 4 gpu vengono sfruttate veramente poco il miglioramente è veramente minimo!:eek:
ho rinstallato i driver 8.8 quindi sono anche gli ultimi...

Cooperdale
25-08-2008, 20:58
smonti il dissipatore
pulisci i chippozzi dalla pastella made in AMD
spalmi un velo della tua pasta termoconduttiva
rimonti il dissipatore


Il dissipatore è smontabile tramite viti come quello della cpu? E quanto ci si guadagno cambiando pasta? Per le cpu ci guadagni pochetto, un paio di gradi di solito. In tal caso lascerei stare.

smoicol
25-08-2008, 21:00
per sfizio ho tolto una scheda.... 15730 3dmark 06! :rolleyes:
La cpù si è un pò ferma... :D anche se è a 3 Ghz! veramente pochissimo...
Io spero chesia un problema di driver... anche se alla risoluzione del test 4 gpu vengono sfruttate veramente poco il miglioramente è veramente minimo!:eek:
ho rinstallato i driver 8.8 quindi sono anche gli ultimi...

purtroppo credo che sei al limite con la cpu,
piu' di questo non puoi,
in una rece ho letto che per far andare queste due vga in crossX ci vuole una bella cpu e credimi CI VUOLE.

Timon85
25-08-2008, 21:06
purtroppo credo che sei al limite con la cpu,
piu' di questo non puoi,
in una rece ho letto che per far andare queste due vga in crossX ci vuole una bella cpu e credimi CI VUOLE.

Porc... spero nn sia così... meno male che le ho solo per test :D

Dobermann75
25-08-2008, 21:19
vero non avevo visto,
però lui parla di settare, se può dirci esattamente cosa, non credo che ha selezionato solo performance

parlava del profilo in CCC ;)
ciao

Dobermann75
25-08-2008, 21:22
per sfizio ho tolto una scheda.... 15730 3dmark 06! :rolleyes:
La cpù si è un pò ferma... :D anche se è a 3 Ghz! veramente pochissimo...
Io spero chesia un problema di driver... anche se alla risoluzione del test 4 gpu vengono sfruttate veramente poco il miglioramente è veramente minimo!:eek:
ho rinstallato i driver 8.8 quindi sono anche gli ultimi...
c'è poco da fare, sei cpu limited...
prova a fare un 3dmark a 1680x1050 o a 1920x1200... poi posta il punteggio ;)

NvidiaMen
25-08-2008, 21:43
assolutamente da quotare ;)

NvidiaMan io sinceramente nn credo che sia un problema di sola fisica, oppure dici che quello è uno dei maggiori?

L'applicativo in sè è molto pesante (numero di oggetti) e la versione DX10 pur non mostrando notevoli progressi grafici rispetto a quella DX9 risulta essere troppo difficoltosa da gestire a riprova del fatto che il codice è stato incentrato su DX9 e sottoposto ad un semplice porting su DX10. A parità di livello grafico la versione DX10 sarebbe dovuta risultare, nella costruzione dello space model 3D, il doppio più potente (naturalmente nella peggiore delle ipotesi, nella migliore addirittura 5...), mentre ci ritroviamo con un framerate ridotto fino al 50%... L'overhead (http://www.hwupgrade.it/articoli/skvideo/1512/directx-10-uno-sguardo-al-futuro-delle-gpu_2.html) necessario per la costruzione di modelli tridimensionali complessi anzichè diminuire è peggiorato, snaturando esattamente all'opposto l'ottimizzazione che le nuove librerie grafiche permettono di avere...
A questo si aggiunga un motore fisico proprietario non certamente ottimizzato come lo è invece l'Havok FX espressamente ideato per sfruttare le piattaforme multicores e la frittata è servita...

Manwë
25-08-2008, 21:48
Il dissipatore è smontabile tramite viti come quello della cpu? E quanto ci si guadagno cambiando pasta? Per le cpu ci guadagni pochetto, un paio di gradi di solito. In tal caso lascerei stare.

si ha solo delle viti
non so quanto ci guadagni cambiando pasta, dipende da quella che c'è ora e da quella che vai a metterci
comunque tieni presente che invalidi la garanzia rimuovendo il dissy

Cooperdale
25-08-2008, 22:30
Ho cambiato la pasta termoconduttiva dei 2 core della 4870x2 sostituendola con la geil all' oro, adesso in full non sale + di 68°, la gpu slave sta sui 39° ed in full max 50°, con temperatura ambientè intorno ai 30°, ventola al 50%.
Consiglio di non sostituire i pad termoconduttivi del bridge e delle ram in quanto non verrebbero bene a contatto col dissì stesso essendoci troppa distanza.
E.

Ma cambiando pasta quanti gradi hai guadagnato in meno?

Dobermann75
25-08-2008, 23:36
Ecco un paio di 3dmark vantage:

1) in modalità base (performace) 1280x1024

http://img83.imageshack.us/img83/4771/cattura6ridxs5.th.jpg (http://img83.imageshack.us/my.php?image=cattura6ridxs5.jpg)

2) in modalità estrema 1920x1200 - filtri al massimo

http://img80.imageshack.us/img80/4989/cattura7or4.th.jpg (http://img80.imageshack.us/my.php?image=cattura7or4.jpg)

sono sempre più convinto che servano i catalyst 8.9....

p.s: comunque il test gpu2 è spettacolare da vedere sul 24" :D

Timon85
26-08-2008, 00:39
c'è poco da fare, sei cpu limited...
prova a fare un 3dmark a 1680x1050 o a 1920x1200... poi posta il punteggio ;)

purtroppo lo schermo da 24 pollici nn l'ho ancora! :D Dovrei acquiastarlo insieme alla scheda se decido di prenderla... cmq ho fatto il 3dmark con il 19 pollici a 1440x900, il punteggio è più o meno il solito con una scheda... 15720

Dobermann75
26-08-2008, 01:36
purtroppo lo schermo da 24 pollici nn l'ho ancora! :D Dovrei acquiastarlo insieme alla scheda se decido di prenderla... cmq ho fatto il 3dmark con il 19 pollici a 1440x900, il punteggio è più o meno il solito con una scheda... 15720
posta la schermata del 3dm06 dove si vedono i punteggi separati e se riesci anche i dettagli degli fps...
Comunque per me sei limitato dal cpu... certo che salendo di risoluzione l'effetto dovrebbe ridursi, dunque bisognerebbe che tu facessi un test a risoluzione maggiore anche perchè a medie e basse risoluzioni il dual gpu è sprecato.

Timon85
26-08-2008, 06:44
posta la schermata del 3dm06 dove si vedono i punteggi separati e se riesci anche i dettagli degli fps...
Comunque per me sei limitato dal cpu... certo che salendo di risoluzione l'effetto dovrebbe ridursi, dunque bisognerebbe che tu facessi un test a risoluzione maggiore anche perchè a medie e basse risoluzioni il dual gpu è sprecato.

questo senz'altro.. a queste risoluzioni è sfruttata veramente poco... immaginati 2 di queste schede! praticamente la seconda nn lavora.. Dopo ti posto la schermata ma ti posso dire che di cpu faccio max 4000 punti se nn mi sbaglio :(

crash2k
26-08-2008, 06:52
ragazzi tornando un attimo sui consumi... col sistema in firma, quindi un buon OC del sistema e GPU @default... il wattometro dello Zalman MFC2 (che non è preciso al Watt cmq) riporta:

IDLE: 290Watt
FULL sotto Crysis Bench: media sui 505, picco 520Watt

sickofitall
26-08-2008, 07:08
ragazzi tornando un attimo sui consumi... col sistema in firma, quindi un buon OC del sistema e GPU @default... il wattometro dello Zalman MFC2 (che non è preciso al Watt cmq) riporta:

IDLE: 290Watt
FULL sotto Crysis Bench: media sui 505, picco 520Watt

in load è piu o meno veritiero, considerando che hai 4hdd, scheda audio, oc cpu e impianto a liquido...

nelle review in media sono sui 430w in load

crash2k
26-08-2008, 07:14
beh credo proprio di si, anche perchè ho anche un certo ventolame nel case per ottimizzare il flusso d'aria altrimenti non proprio eccezionale. certo che se penso ad un cross di 4870x2 mi viene paura :D :) cmq non mi lamento, anzi.

terror_noize
26-08-2008, 08:16
ragazzi tornando un attimo sui consumi... col sistema in firma, quindi un buon OC del sistema e GPU @default... il wattometro dello Zalman MFC2 (che non è preciso al Watt cmq) riporta:

IDLE: 290Watt
FULL sotto Crysis Bench: media sui 505, picco 520Watt

Stessi valori miei (forse qualche watt in più in idle) ;)

Cooperdale
26-08-2008, 08:24
Ecco la risposta di Ray Adams alla mia domanda sull'eventuale supporto della 4870x2 in Ati Tray Tools:

"No idea when or even will be that support"...

terror_noize
26-08-2008, 08:29
Ecco la risposta di Ray Adams alla mia domanda sull'eventuale supporto della 4870x2 in Ati Tray Tools:

"No idea when or even will be that support"...

:cry:

EmperoR
26-08-2008, 08:29
Il dissipatore è smontabile tramite viti come quello della cpu? E quanto ci si guadagno cambiando pasta? Per le cpu ci guadagni pochetto, un paio di gradi di solito. In tal caso lascerei stare.

Io ho cambiato solo la pasta termoconduttiva delle 2 gpu e devo dire che oltre ad aver guadagnato una decina di °, lo scambio termico avviene molto + rapidamente, ad esempio, se prima dopo una sessione di 3d la temp. della gpu 1 (quella + calda xchè riceve l' aria già scaldata dal primo dissipatore) ci metteva 2 minuti x tornare intorno ai 50°, adesso ci mette 30 secondi.
La pasta termoc. originale è una porcheria...
E.

webbuffa
26-08-2008, 09:34
Ecco la risposta di Ray Adams alla mia domanda sull'eventuale supporto della 4870x2 in Ati Tray Tools:

"No idea when or even will be that support"...

:cry:

;) Diamogli tempo!

GIAMPI87
26-08-2008, 11:15
Salve ragazzi sono in vacanza, per i primi di settembre torno a casa. Vedo dai post di doberman e degli aktri che questa scheda va di brutto.

Io avrei intensione di prendere l'MSI su e-chiave (384 dindi) e volevo cambiare il mio alimentatore con questo che ne pensate?

- ANTEC: True Power Quattro 1000W (quattro linee da 12V, combinate arriva a 840 Watt e 70 A su questa linea).

Un'altra cosa ragazzi dalle varie recensione ho visto che in crysis questa scheda in alcune rece è avanti alla GTX 280 in altre un pelo sotto. Non so dove sta la verità. Io vorrei giocare con questa scheda a 1920x1200 sotto win xp sp2 con il fix per il very high e se riesco con qualche filtro se no fa niente. Ci riuscirò secondo voi anche con il resto della configurazione in firma?

Enochian
26-08-2008, 11:22
L'alimentatore reggerebbe 2x4870x2 in CF. In quanto a crysis, se giochi al massimo in dx9 su high quindi con quella scheda ti dovrebbe fare almeno 40 fps, a me li fa con 2x4870... se giochi su vista a veryhigh sicuramente fa intorno ai trenta.
Potresti cambiare il processore con un e8400 almeno visto che costano poco per migliorare le prestazioni.

Dobermann75
26-08-2008, 11:22
Salve ragazzi sono in vacanza, per i primi di settembre torno a casa. Vedo dai post di doberman e degli aktri che questa scheda va di brutto.

Io avrei intensione di prendere l'MSI su e-chiave (384 dindi) e volevo cambiare il mio alimentatore con questo che ne pensate?

- ANTEC: True Power Quattro 1000W (quattro linee da 12V, combinate arriva a 840 Watt e 70 A su questa linea).

Un'altra cosa ragazzi dalle varie recensione ho visto che in crysis questa scheda in alcune rece è avanti alla GTX 280 in altre un pelo sotto. Non so dove sta la verità. Io vorrei giocare con questa scheda a 1920x1200 sotto win xp sp2 con il fix per il very high e se riesco con qualche filtro se no fa niente. Ci riuscirò secondo voi anche con il resto della configurazione in firma?

Ottimo, considera che alla fine sono tutte reference Ati, dunque a meno di rpoendere una marca sconosciuta non ci sono problemi tra i marchi commercializzati da noi...

Per il discorso dell'alimentatore, personalmente ti consiglio un Corsair, Tagan, Enermax e Seasonic, anche di potenza inferiore ai 1000W, direi che un buon 750-800W dovrebbe bastarti per futuri upgrade pesanti, considerando che la tecnocogia si stà sempre spostando per ridurre i processi produttivi e di conseguenza i consumi...

Per crysis, senza filtri alla risoluzione 1920x1200 stai attorno ai trenta, la gtx280 non riesce ad andare più forte della 4870x2 a questa risoluzione , forse a 1280x1040 :asd: . Poi comuinque crysis puoi buttarci dentro tutta la potenza che vuoi ma non girarà mai a fps alti con risoluzioni da 1920 in su...

Cooperdale
26-08-2008, 11:35
Ottimo, considera che alla fine sono tutte reference Ati, dunque a meno di rpoendere una marca sconosciuta non ci sono problemi tra i marchi commercializzati da noi...

Per il discorso dell'alimentatore, personalmente ti consiglio un Corsair, Tagan, Enermax e Seasonic, anche di potenza inferiore ai 1000W, direi che un buon 750-800W dovrebbe bastarti per futuri upgrade pesanti, considerando che la tecnocogia si stà sempre spostando per ridurre i processi produttivi e di conseguenza i consumi...

Per crysis, senza filtri alla risoluzione 1920x1200 stai attorno ai trenta, la gtx280 non riesce ad andare più forte della 4870x2 a questa risoluzione , forse a 1280x1040 :asd: . Poi comuinque crysis puoi buttarci dentro tutta la potenza che vuoi ma non girarà mai a fps alti con risoluzioni da 1920 in su...

Io mi trovo benissimo con l'Enermax Galaxy a 1000W. Però ho sette hard disk, due schede pci-x e una pci nel case, per questo devo andare sui 1000. Altrimenti sono convinto che anche con 650-700 si sta tranquilli. L'importante è l'amperaggio sui 12V (nel mio caso 24A massimi per ciascuna linea).

Insano
26-08-2008, 12:51
Ciao ragazzi in settimana mi arrivera' il mostrino MSI R4870X2-T2D2G-OC PCI-E 2GB DDR5,volevo chiedervi se il mio ali enermax liberty da 620w andava bene.
la mia configurazione e' q6600, zalman 9500, asus p5e3, 2gb ram ddr3 1066, Sound Blaster X-Fi Xtreme Audio, 2 ventole da 12mm, 3 hdd (80;80;160), un lettore dvd, un masterizzatore dual.
andra' bene?????:rolleyes:

matthi87
26-08-2008, 13:07
Se non fai overclock pesanti va benissimo

Insano
26-08-2008, 13:16
bhe clock pesanti cosa intendi?????
magari in futuro avrei pensato a lasciare il proc a 3.2Ghz,fondero' tutto:doh: ?

al135
26-08-2008, 13:19
bhe clock pesanti cosa intendi?????
magari in futuro avrei pensato a lasciare il proc a 3.2Ghz,fondero' tutto:doh: ?

con lo zalman tieni il processore daily use tranquillamente a 3500-3600 ;)
leggi le nostre config

Manwë
26-08-2008, 13:26
Ciao ragazzi in settimana mi arrivera' il mostrino MSI R4870X2-T2D2G-OC PCI-E 2GB DDR5,volevo chiedervi se il mio ali enermax liberty da 620w andava bene.
la mia configurazione e' q6600, zalman 9500, asus p5e3, 2gb ram ddr3 1066, Sound Blaster X-Fi Xtreme Audio, 2 ventole da 12mm, 3 hdd (80;80;160), un lettore dvd, un masterizzatore dual.
andra' bene?????:rolleyes:

Anche io ho un 620w, ma della Corsair, comunque credo non ci siano sostaziali differenze. Controlla e assicurati di avere un connettore 6-pin PCI-E e un connettore 8-pin PCI-E
altrimenti devi fare ponte con 2 masse PCI-E al molex :)

Per reggere regge, un 620W eroga sino a 480~490W ... io sto a 390W con cpu @4GHz, la tua stessa scheda video e 3 HDD s-ata ... più 4 ventole 120mm, X-Fi, 4 moduli di ram, dvd-rw

GIAMPI87
26-08-2008, 13:43
Doberman seguendo il tuo consiglio, ordinerò su deep-ov.... questo ali:Tagan TG900-BZ PipeRock Series 900W (163 dindi), questo andrà bene anche per due 4870X2 ? Potenza totale linee da 12V combinate = 864 watte 72 A

matthi87
26-08-2008, 14:00
Doberman seguendo il tuo consiglio, ordinerò su deep-ov.... questo ali:Tagan TG900-BZ PipeRock Series 900W (163 dindi), questo andrà bene anche per due 4870X2 ? Potenza totale linee da 12V combinate = 864 watte 72 A

Credo vada bene anche per 2 si

matthi87
26-08-2008, 14:01
bhe clock pesanti cosa intendi?????
magari in futuro avrei pensato a lasciare il proc a 3.2Ghz,fondero' tutto:doh: ?

3,2 non è assolutamente pesante. per pesante intendo un Q6600 a 4,0ghz dove cominci ad aver bisogno del liquido :)

LCol84
26-08-2008, 14:42
Hola ragazzi! Mi è arrivata ieri sera sta bestiolina!!! Sono uno dei vostri!
Prima cosa ho una gpu a 54 e una a 88, è normale? :D

Dobermann75
26-08-2008, 14:48
Ciao ragazzi in settimana mi arrivera' il mostrino MSI R4870X2-T2D2G-OC PCI-E 2GB DDR5,volevo chiedervi se il mio ali enermax liberty da 620w andava bene.
la mia configurazione e' q6600, zalman 9500, asus p5e3, 2gb ram ddr3 1066, Sound Blaster X-Fi Xtreme Audio, 2 ventole da 12mm, 3 hdd (80;80;160), un lettore dvd, un masterizzatore dual.
andra' bene?????:rolleyes:
vai tranquillo ;) fino a 3,6Ghz non dovresti avere problemi, considerando anche eventuali overvolt a cpu e ram..

Dobermann75
26-08-2008, 14:49
Hola ragazzi! Mi è arrivata ieri sera sta bestiolina!!! Sono uno dei vostri!
Prima cosa ho una gpu a 54 e una a 88, è normale? :D

normale, se noti una lavora meno dell'altra oltre che essere meglio dissipata...

jaiss69
26-08-2008, 15:19
Pure a me finalmente è arrivata..
Sono dei vostri..
La monto stasera spero fili tutto liscio con un ali da 750..

LCol84
26-08-2008, 15:23
Pure a me finalmente è arrivata..
Sono dei vostri..
La monto stasera spero fili tutto liscio con un ali da 750..

Beh a me va perfettamente col corsair 450 fai tu... :ciapet:
A quando devo cloccare la cpu per tenere il passo con la 4870x2?
4ghz?

sickofitall
26-08-2008, 15:24
Pure a me finalmente è arrivata..
Sono dei vostri..
La monto stasera spero fili tutto liscio con un ali da 750..

se ce la faccio io con un 600w... :fagiano:

Dobermann75
26-08-2008, 15:27
Doberman seguendo il tuo consiglio, ordinerò su deep-ov.... questo ali:Tagan TG900-BZ PipeRock Series 900W (163 dindi), questo andrà bene anche per due 4870X2 ? Potenza totale linee da 12V combinate = 864 watte 72 A

Urca, ottimo alimentatore...
Si dovrebbe reggerti anche 2 4870x2... ciao

sickofitall
26-08-2008, 15:28
Beh a me va perfettamente col corsair 450 fai tu... :ciapet:
A quando devo cloccare la cpu per tenere il passo con la 4870x2?
4ghz?


basta che stai ad almeno 1680x1050 in su, con i filtri a palla per non essere cpu limited :D

LCol84
26-08-2008, 15:39
basta che stai ad almeno 1680x1050 in su, con i filtri a palla per non essere cpu limited :D

eheh
Per ora ho un monitor 1440x900... Tiro la cpu a 4ghz e vediamo. Quando scendono i full HD magari ci fo 1 pensierino :D