View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
grazie, guardo in giro :)
webbuffa
03-06-2007, 20:50
Prenditi il mio in sign. ;) CRT, 24 pollici, 16:10, insuperabile per qualsiasi LCD in commercio ora e in futuro. :D
Se ti sbatti, dovresti ancora trovarlo su e-bay, da qualche tedesco se non ricordo male.
:) Bella cassapanca di monitor.. sicuramente ottima qualità però :)
Free Gordon
03-06-2007, 20:57
guarda se i crt li facessero in formato wide ti dire anke di si...ma così nn'è quindi.
I CRT wide esistono eccome, io ne ho uno in casa... :D (guarda la sign)
Purtroppo l'industria è andata in una direzione sbagliata dal pdv della qualità d'immagine... scegliendo la tecnologia LCD (che ha indubbi vantaggi da altri pdv..).
Il problema è che oggi non vengono proprio più prodotto i CRT... e questa la vera disgrazia!!! :cry: :cry: :cry:
Io spero nelle prossime tecnologie, perchè ad oggi, non c'è ancora un solo LCD (TV o monitor che sia) che mi soddisfa per il gaming.
I Plasma ad esempio sono già un pò meglio.
Free Gordon
03-06-2007, 21:01
Comunque su oblivion son passato dai 24 frame con la mia x1900 xt ai 54 della hd2900 (situazione in mezzo al bosco con molta vegetazione)... e io ne sono entusiasta (piu del 100% di guadagno)
Ottimo.
A parità di condizioni? AA e AF HQ?
Piccola curiosita :nel 3dmark 2001 c'è un test che si chiama hight poligon count 1 e 8 light .
Beh , per la prima volta l ho visto fluido come non mai e sono passato dai 208.3 e 18.2 MT della x1900 (rispettivamente a 1 e 8 luci :il secondo scatta da far paura)a 537.1 Mt e 201.8 Mt
Il secondo piu di 20 volte piu veloce... curioso direi
Impressionante... perfino troppo direi... :D
Free Gordon
03-06-2007, 21:04
Basta togliere la plastica sopra che fa da convogliatore e il dissi di rame il resto, le 2 piastre sopra e sotto e la ventola (collegata) si può lasciare
da questa immagine si può capire cosa intendo.....
Secondo me è meglio scoperchiare tutto e far respirare le ram. ;)
Monti il WB e poi sopra ci metti una 80mm silent, a bassi regimi, per muovere l'aria sopra le ram/GPU/mosfet.
Sempre fatto così col liquido.
Free Gordon
03-06-2007, 21:04
:) Bella cassapanca di monitor.. sicuramente ottima qualità però :)
41 Kg... :asd:
Free Gordon
03-06-2007, 21:17
io ho voluto fare una prova, ma togliendo tutto come ho fatto con la vga che avevo prima di questa, poi devi andare a raffreddare con delle ventole esterne dedicate ram e mosfet, oltretutto le ram di questa video sono a doppia faccia.
E' molto meglio così. ;)
Se metti una silent sopra alla scheda, le temp di ram e mosfet sono decisamente migliori rispetto ad avere quella placcozza appiccicata sopra. ;)
In base alla mia esperienza, ti posso dire che le placche prive di alette come quelle, soffocano solamente le ram, non le aiutano.
I dissipatori delle vga (high end) sono fatti in quel modo, soprattutto per questioni estetiche. :)
Uno dei migliori dissi VGA della passata stagione è lo Zalman, perchè raffredda bene il core e spara aria sui dissini alettati che monti sulle ram e le tiene fresche per davvero (non che, senza overvolt, ce ne sia estremo bisogno cmq..).
webbuffa
03-06-2007, 21:41
41 Kg... :asd:
Mamma mia!! :eek: :eek: Scrivania rinforzata ? :asd:
Uno dei migliori dissi VGA della passata stagione è lo Zalman, perchè raffredda bene il core e spara aria sui dissini alettati che monti sulle ram e le tiene fresche per davvero (non che, senza overvolt, ce ne sia estremo bisogno cmq..).
:cool: Allora aspettiamoci qualche bella novità anche per la 2900..
P.S. è possibile avere il link dei 8.38.1 del 30 :) ? pls :fagiano:
MonsterMash
03-06-2007, 21:58
Prenditi il mio in sign. ;) CRT, 24 pollici, 16:10, insuperabile per qualsiasi LCD in commercio ora e in futuro. :D
Se ti sbatti, dovresti ancora trovarlo su e-bay, da qualche tedesco se non ricordo male.
Azz, e io che credevo di avere il crt più grosso in circolazione :D
Il mio pesa "solo" 35 kg :D
davide155
03-06-2007, 22:10
Piccola curiosita :nel 3dmark 2001 c'è un test che si chiama hight poligon count 1 e 8 light .
Beh , per la prima volta l ho visto fluido come non mai e sono passato dai 208.3 e 18.2 MT della x1900 (rispettivamente a 1 e 8 luci :il secondo scatta da far paura)a 537.1 Mt e 201.8 Mt
Il secondo piu di 20 volte piu veloce... curioso direi
Bè guarda io con la x1900xt ottengo 50 MT/sec......
Quindi 18 mi sembrano un risultato un pò fuori norma per una x1900 ;)
Zodd_Il_nosferatu
03-06-2007, 22:49
link degli 8.38.1 del 30?:confused:
:mc:
Zodd_Il_nosferatu
03-06-2007, 22:54
http://drivers.mydrivers.com/download/175-70222-ATI-Radeon-HD-2900-XT-8.381-Beta-For-WinXP
eccoli qui :)
webbuffa
03-06-2007, 23:13
http://drivers.mydrivers.com/download/175-70222-ATI-Radeon-HD-2900-XT-8.381-Beta-For-WinXP
eccoli qui :)
;) Grande Zodd! grazie :)
Alexkidd85
03-06-2007, 23:17
se metto oblivion con dettagli a palla, hdr, risoluzione 1280x1024 e anisotrpico 16x, stà sempre sui 55/60, in condizioni altamente erbose con nemici nelle vicinanze cmq non è mai sceso sotto i 45
Anti aliasing!? P.S. Io paragono sempre la mia configurazione con i vostri screen o fps...e mi dimentico che sono a 1680x1050 :muro:
come non detto :D tutto nella norma :D
fai conto che io a 1280, hdr, aa8x, af16x il resto al massimo con ill qtp3 negli esterni erbosi con 2/3 nemici faccio mediamente i 30-35 fps quindi è possibilisimo
in combattimento sono un' altr paio di maniche perche si scende anche fino a 20fps, ma penso che nemmeno una gtx tenga il passo ad oblivion moddato :asd:
Non saprei...forse a 1280 si,sai? Io mai andato sotto i 30fps (media sto a 50) a 1680...e i 30 sono nella fase di caricamento dell'area ma quello è perché la ram e la cpu lavorano a palla (sono quelle che sono) e castrano la vga...ovviamente anche io ho il pakketto di qarl... :)
Stesso discorso di prima anche a te che mi preoccupavo del paragone ma sono io che non considero di avere una risoluzione più alta...mi ci devo abituare :D
Grazie della delucidazione ;)
Secondo me è meglio scoperchiare tutto e far respirare le ram. ;)
Monti il WB e poi sopra ci metti una 80mm silent, a bassi regimi, per muovere l'aria sopra le ram/GPU/mosfet.
Sempre fatto così col liquido.
emmm ragazzi fate un pò come vi pare io non sto dicendo meglio o peggio pure io ho tenuto le vga prima di questa con le ram scoperte ho precisato che la sto provando in questa maniera e x ora le temp sono buonissime anche rispetto alla 1900 di prima tutto qui :fagiano:
Zodd_Il_nosferatu
03-06-2007, 23:20
;) Grande Zodd! grazie :)
li ho scaricati... sono gli stessi del 22... :mc:
Athlon 64 3000+
03-06-2007, 23:23
http://drivers.mydrivers.com/download/175-70222-ATI-Radeon-HD-2900-XT-8.381-Beta-For-WinXP
eccoli qui :)
io sono stato il primo a metteri il link del driver e lo ho scaricato e anche installato e sono gli 8.38.1 del 22 maggio e non del 30.
webbuffa
03-06-2007, 23:37
li ho scaricati... sono gli stessi del 22... :mc:
:) Infatti sono quelli del 22 confermo anche io...
Kharonte85
04-06-2007, 00:18
Edit
OLDERRIMO :D
sapete se il zalman che ho in firma è compatibile con questa vga???
up
MonsterMash
04-06-2007, 00:51
up
Visto che i buchi per il fissaggio sono gli stessi, credo che si possa montare, ma credo che nessuno qui sul forum lo abbia ancora provato. Ed in ogni caso, dubito che possa tenere a bada tutti i watt che deve dissipare r600... Già leggevo che con le 1900xt le temperature erano superiori rispetto al dissi stock, anche se lo zalman ovviamente era molto più silenzioso
cmq se proprio dobbiamo parlare di 3d mark come qualcuno prima mi suggeriva...ho visto sul 3d dei test sulla 2900xt che a 840/1960 si arriva ai 10100....mi sembrano result bassi a mio avviso...non ho mai usato i 3d mark per confrontare le vga e non lo farò adesso lo facico notare solo a chi magari gli da più peso....cavoli parliamo di 840mhz di core!! se le vere potenzialità di R600 sonio ancora nascoste bè... sono nascoste davvero bene...:D
speriamo si riprendano davvero con i driver...le unice vga che mi hanno convinto ultimamente della ati sono la serie x1950....sto R600 mi puzza di x1800.... sparata fuori mesi e mesi in ritardo stirata in frequenza da morire per riprendere di un gradino la 7800gtx...spero per ati e amd che ritornino in carreggiata...perchè sta scheda davvero non mi convince affatto...di K10 AMD non se ne sa nulla ancora...sto giro intel e nvidia hanno davvero spaccato a mio avviso...bè anche loro hanno avuto le loro lacune in passato vedi serie 5 nvidia e i pentium precotti della intel...mi sa che stavolta xò tocca a amd/ati il giro "storto"
stessa cosa dicasi per il benck unigine 0.4...il punteggio più alto con una 2900 overclokkata è di 1140 allincirca...con 54 frame...
io faccio 1500 con 70 frame....
qui sul 3d c'è gente che dice che quasi quasi è meglio di una gtx...che mi sembra moooolto irraggiungibile...bu...oh sia chiaro parlo come "critico" analista della situazione non come uno che dice nvidia è meglio di ati...sia chiaro;) :D
Visto che i buchi per il fissaggio sono gli stessi, credo che si possa montare, ma credo che nessuno qui sul forum lo abbia ancora provato. Ed in ogni caso, dubito che possa tenere a bada tutti i watt che deve dissipare r600... Già leggevo che con le 1900xt le temperature erano superiori rispetto al dissi stock, anche se lo zalman ovviamente era molto più silenzioso
si si io ne parlo solo per motivi di rumorosità, visto che ho sentito che ste 2900 fanno il supercasino delle 1900...
poi riguardo alla storia che si leggeva sul forum della 1900 dove col zalman le temp erano piu alte del dissi originale mi hanno sempre fatto un po pensare, per il semplice motivo che a me le temp si sono abbassate di 20 gradi e anche piu sia in idle che in full......boh misteri.
be effettivamente quello che ha detto Poty... nei suoi ultimi due post non è nemmeno campato sulle piante, anzi.... cmq speriamo davvero che con driver maturi escano delle serie prestazioni, anche se a oggi con alcuni giochi batte già la gtx/ultra, sperimo:ave: :ave:
be effettivamente quello che ha detto Poty... nei suoi ultimi due post non è nemmeno campato sulle piante, anzi.... cmq speriamo davvero che con driver maturi escano delle serie prestazioni, anche se a oggi con alcuni giochi batte già la gtx/ultra, sperimo:ave: :ave:
Secondo me sarebbe utile se qualche utente con la HD2900 facesse qualche test con unigine escludendo via via alcune opzioni, ad esempio:
- un test con tutto uguale alle classiche impostazioni del test del thread ufficiale unigine meno l'AA
- un altro con tutto uguale meno AA e HDR
- un altro con tutto uguale meno AA, HDR e soft shadows
Giusto per capire quale di queste impostazioni dà il "colpo" maggiore alle prestazioni. :)
A.L.M. io ottengo 55.4 frame senza cloccare nulla, mi sembra invero un ottimo punteggio per un test che non prende in considerazione 2900 nel suo sviluppo.
A.L.M. io ottengo 55.4 frame senza cloccare nulla, mi sembra invero un ottimo punteggio per un test che non prende in considerazione 2900 nel suo sviluppo.
Il framerate non è male, ma è comunque di una decina di fps sotto ad una GTS con un AthlonX2 4200+. :)
Ecco perchè mi sembrava interessante capire quale delle opzioni causava questo distacco: se una delle opzioni citate prima causa un forte impatto prestazionale, si dovrebbe notare una grossa differenza di framerate tra un test e l'altro.
Potrebbe essere colpa dell'AA via shaders o delle famigerate ROPs. ;)
Il framerate non è male, ma è comunque di una decina di fps sotto ad una GTS con un AthlonX2 4200+. :)
Ecco perchè mi sembrava interessante capire quale delle opzioni causava questo distacco: se una delle opzioni citate prima causa un forte impatto prestazionale, si dovrebbe notare una grossa differenza di framerate tra un test e l'altro.
Potrebbe essere colpa dell'AA via shaders o delle famigerate ROPs. ;)
Di una Gts cloccata, una Gts a default a quanto mi dicono va di meno a parità di sistema e sistema operativo.
Su Vista 64 si perdono circa 20-25 fps rispetto a xp, il problema del 3d su unigine è che non tutti dichiarano il clock e si confronta xp con vista, da qui una classifica secondo me disomogenea.
Friz1983
04-06-2007, 09:49
stessa cosa dicasi per il benck unigine 0.4...il punteggio più alto con una 2900 overclokkata è di 1140 allincirca...con 54 frame...
io faccio 55.6 come ho postato nel 3d dell'ungine e non ho nulla di overcloccato,e per di piu non so quanto possa valere vista la fatica che ho fatto a farlo funzionare e che quello in opengl non riesco ancora a farlo andare
per di piu presenta dei bug grafici alla fine quando mostra il punteggio mancano delle finestre ( durante il bench ci sono ) e il dof o come si chiama fa un effetto veramente brutto in alcune situazioni.
ho fatto il test senza 2xAA e faccio 65 l'ho fatto perchè in prima pagina a differenza di quello che c'è scritto di fare tutti i punteggi piu alti son fatti in questo modo :read: ,ma non sembra che importi a qualcuno lol
cmq io ne sono stra contento di sta vga a 1280 DIRT tutto su ultra e ci gioco da dio, STALKER sta a 50/60 fps tutto al massimo peccato che mi crasci in continuazione per problemi della vga ( si resetta e entra in azione il vpu recover) GTR2 tutto a palla senza problemi.. che devo chiedere di piu?
a e come rumore non mi sembra che dia cosi fastidio in idle(computer aperto a meno di 30 cm da me, in full entra in azione un po di rumore ma giocando sempre con le cuffie nn ci faccio caso
Friz1983
04-06-2007, 10:02
Secondo me sarebbe utile se qualche utente con la HD2900 facesse qualche test con unigine escludendo via via alcune opzioni, ad esempio:
- un test con tutto uguale alle classiche impostazioni del test del thread ufficiale unigine meno l'AA
- un altro con tutto uguale meno AA e HDR
- un altro con tutto uguale meno AA, HDR e soft shadows
Giusto per capire quale di queste impostazioni dà il "colpo" maggiore alle prestazioni. :)
eccomi ti ho fatto i test:
Tutto con imp. da 3d FPS: 55.6 score: 1179
Test no AA FPS64.9 Score: 1375
test no AA e no DOF FPS: 80.5 score 1706
Test no AA e no HDR FPS: 71.8 score 1522
test 3d mark sulla nuova 2900 con 1gb ddr4 e CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W
先配上3.6G
預設
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
http://www.coolaler.com/forum/showthread.php?t=154586
MonsterMash
04-06-2007, 10:42
test 3d mark sulla nuova 2900 con 1gb ddr4 e CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W
先配上3.6G
預設
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
http://www.coolaler.com/forum/showthread.php?t=154586
Ma come fanno sti cinesi a mettere le mani sopra queste cose in anteprima assoluta?
Cmq, i punteggi mi sembrano molto buoni, bisogna solo vedere il prezzo a cui sarà proposta. Secondo me se costa più di 50 euro in più rispetto alla xt da 512 mb, già diventa poco conveniente.
webbuffa
04-06-2007, 10:44
test 3d mark sulla nuova 2900 con 1gb ddr4 e CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W
Default
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
:) Secondo me non sono molto diversi da quelli della 512...
Friz1983
04-06-2007, 10:49
:) Secondo me non sono molto diversi da quelli della 512...
anche a me... io faccio 10.000 tutto a default con un 6600 a 2.4.. con un quad a 4 ghz secondo me nn mi allontenerei tanto da quel punteggio
Secondo me sarebbe utile se qualche utente con la HD2900 facesse qualche test con unigine escludendo via via alcune opzioni, ad esempio:
- un test con tutto uguale alle classiche impostazioni del test del thread ufficiale unigine meno l'AA
- un altro con tutto uguale meno AA e HDR
- un altro con tutto uguale meno AA, HDR e soft shadows
Giusto per capire quale di queste impostazioni dà il "colpo" maggiore alle prestazioni. :)
oggi li faccio e te li posto
webbuffa
04-06-2007, 10:56
anche a me... io faccio 10.000 tutto a default con un 6600 a 2.4.. con un quad a 4 ghz secondo me nn mi allontenerei tanto da quel punteggio
;) Infatti.... alla fine a cosa serve? per qualche gioco direct 10 molto pesante :) ?
Poliphilo
04-06-2007, 11:02
test 3d mark sulla nuova 2900 con 1gb ddr4 e CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W
先配上3.6G
預設
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
http://www.coolaler.com/forum/showthread.php?t=154586
:eek:
Quando esce?
Di una Gts cloccata, una Gts a default a quanto mi dicono va di meno a parità di sistema e sistema operativo.
Su Vista 64 si perdono circa 20-25 fps rispetto a xp, il problema del 3d su unigine è che non tutti dichiarano il clock e si confronta xp con vista, da qui una classifica secondo me disomogenea.
In effetti controllando hai ragione. ;)
eccomi ti ho fatto i test:
Tutto con imp. da 3d FPS: 55.6 score: 1179
Test no AA FPS64.9 Score: 1375
test no AA e no DOF FPS: 80.5 score 1706
Test no AA e no HDR FPS: 71.8 score 1522
Il test senza depth of field aveva l'hdr o no? Interessante, comunque: bisognerebbe fare la stessa cosa con la 8800 GTX e la GTS. Per capire come si comportano all'attivazione dei diversi effetti/filtri.
Hello, Patrick
> Hi, i have downloaded you benchmark, Sanctuary Demo, and i have visual problems with shadows with my video card, i don't know if it's supproted or not and i think there is also a performance problem.
> I use an Athlon x2 4200 and Windows Vista 64.
> Opengl doesen't work at all :(
> I also notice that enabling the function fireball the frame rate increse a lot, but there is no more windows shadows but a lot of dinamic lights and less hdr, it's correct?
Since we still have no R600 card, we haven't tested our engine with it.
Rumors say that ATI drivers for vista have big problems with OpenGL in
general.
Enabling fireballs turns off outside light, while there are still 4
dynamic lights inside - 2 candles and 2 fireballs, that's why there is
a performance increase. Without fireballs there are 5 dynamic lights in
the scene (torches are dynamic ones too).
--
Denis Shergin
CEO of Unigine Corp.
tel.: +79138250566
e-mail: diesel@unigine.com
Penso che sia importante postare una mail che mandai ai creatori dell'engine, non hanno nemmeno una r600 per poterla testare, figuriamoci se la contemplano nello sviluppo dello stesso ;)
:eek:
Quando esce?
fine giugno..sembra
Poliphilo
04-06-2007, 11:28
fine giugno..sembra
Ok. Si sa niente del prezzo vero?
Friz1983
04-06-2007, 11:36
Il test senza depth of field aveva l'hdr o no? Interessante, comunque: bisognerebbe fare la stessa cosa con la 8800 GTX e la GTS. Per capire come si comportano all'attivazione dei diversi effetti/filtri.
si l'hdr era attivato anche a me ha meravigliato anche perche durante il test il punteggio raggiungeva anche 120; solo nel nel primo e in quello da dietro la finestra che vedi in trasparenza scendeva a 60
test 3d mark sulla nuova 2900 con 1gb ddr4 e CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W
先配上3.6G
預設
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
http://www.coolaler.com/forum/showthread.php?t=154586
non male... comincia a rodermi di averla presa appena uscita :doh:
http://www.legitreviews.com/article/507/3/
Poliphilo
04-06-2007, 11:55
Non ho capito con che sistema ha ottenuto tali risultati però,
http://www.legitreviews.com/article/507/3/
Diciamo pure che con l'uscita della patch sono usciti driver nvidia ad hoc, come facilmente verificabile dalla news di hwupgrade.
3DMark79
04-06-2007, 12:11
Non ho capito con che sistema ha ottenuto tali risultati però,
CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W se parli di questi
http://www.coolaler.com/forum/showthread.php?t=154586
Diciamo pure che con l'uscita della patch sono usciti driver nvidia ad hoc, come facilmente verificabile dalla news di hwupgrade.
Nvidia almeno fa driver ke danno boost, non come i 7.5
Diciamo pure che con l'uscita della patch sono usciti driver nvidia ad hoc, come facilmente verificabile dalla news di hwupgrade.
E' già da un mese che si parla di prestazioni scadenti causa driver, speriamo si diano una mossa, altrimenti la vedo proprio nera.
halduemilauno
04-06-2007, 12:44
http://www.legitreviews.com/article/507/3/
non solo ci sono i 7.5 ma la xt ha la ram a 2000. solo la gtx è a default.
;)
E' già da un mese che si parla di prestazioni scadenti causa driver, speriamo si diano una mossa, altrimenti la vedo proprio nera.
Permettimi, è una patch uscita dopo i 7.5, quindi il gioco non può beneficiare di eventuali migliorie, una patch uscita in contemporanea con nuovi driver Nvidia di un gioco TWIMTBP, sarò sosptettoso ma io la vedo come una mossa commerciale più che come un effettivo confronto.
Anche Ati, dal canto suo, è molto legata a Valve.
Free Gordon
04-06-2007, 12:46
emmm ragazzi fate un pò come vi pare io non sto dicendo meglio o peggio pure io ho tenuto le vga prima di questa con le ram scoperte ho precisato che la sto provando in questa maniera e x ora le temp sono buonissime anche rispetto alla 1900 di prima tutto qui :fagiano:
Non avevo mica visto che avevi la 2900.. :sofico:
bene così, effettivamente delle ddr3 a 1600mhz non dovrebbero scaldare chissà quanto.
cmq hai provato a misurare la temp dei chip (ram)?
Permettimi, è una patch uscita dopo i 7.5, quindi il gioco non può beneficiare di eventuali migliorie, una patch uscita in contemporanea con nuovi driver Nvidia di un gioco TWIMTBP, sarò sosptettoso ma io la vedo come una mossa commerciale più che come un effettivo confronto.
Anche Ati, dal canto suo, è molto legata a Valve.
Io non giudicavo solo in base a quei test di COH in dx10, ma parlavo in generale...è da un mese che si cerca di giustificare le basse prestazioni della scheda rispetto alla concorrenza dando la colpa ai driver, di driver nuovi ne sono già uscite due release e i risultati son sempre quelli.
Free Gordon
04-06-2007, 12:50
cmq se proprio dobbiamo parlare di 3d mark come qualcuno prima mi suggeriva...ho visto sul 3d dei test sulla 2900xt che a 840/1960 si arriva ai 10100....mi sembrano result bassi a mio avviso...non ho mai usato i 3d mark per confrontare le vga e non lo farò adesso lo facico notare solo a chi magari gli da più peso....cavoli parliamo di 840mhz di core!! se le vere potenzialità di R600 sonio ancora nascoste bè... sono nascoste davvero bene...:D
speriamo si riprendano davvero con i driver...le unice vga che mi hanno convinto ultimamente della ati sono la serie x1950....sto R600 mi puzza di x1800.... sparata fuori mesi e mesi in ritardo stirata in frequenza da morire per riprendere di un gradino la 7800gtx...spero per ati e amd che ritornino in carreggiata...perchè sta scheda davvero non mi convince affatto...di K10 AMD non se ne sa nulla ancora...sto giro intel e nvidia hanno davvero spaccato a mio avviso...bè anche loro hanno avuto le loro lacune in passato vedi serie 5 nvidia e i pentium precotti della intel...mi sa che stavolta xò tocca a amd/ati il giro "storto"
Torniamo a parlare di R600, please.
Grazie. :)
Io non giudicavo solo in base a quei test di COH in dx10, ma parlavo in generale...è da un mese che si cerca di giustificare le basse prestazioni della scheda rispetto alla concorrenza dando la colpa ai driver, di driver nuovi ne sono già uscite due release e i risultati son sempre quelli.
1 release dove in opengl va il 30% in più e stalker guadagna 5-10 fps mediamente e il 30-40% in Hl2 Lost Coast, di una scheda uscita il 14 del mese scorso, posso testimoniare tutto quello che affermo, come ho già fatto peraltro.
Ma il bello è che non se ne lamentano i possessori, ma solo chi non la possiede.
1 release dove in opengl va il 30% in più e stalker guadagna 5-10 fps mediamente e il 30-40% in Hl2 Lost Coast, di una scheda uscita il 14 del mese scorso, posso testimoniare tutto quello che affermo, come ho già fatto peraltro.
Ma il bello è che non se ne lamentano i possessori, ma solo chi non la possiede.
Quoto...
;)
Free Gordon
04-06-2007, 12:58
Exclusive Interview with Epics Tim Sweeny on Unreal-Engine-3 and UT 3
31.05.2007 13:02 Uhr - The original printed version was first published in issue 06/2007 of the german PC Games Hardware magazine. Here you'll find the unabridged interview of PCGH with Tim Sweeny. The Interview was conducted via email by Frank Stöwer on behalf of PC Games Hardware, all rights reserved. (2007)
PCGH: You rescheduled the game to Q3 in 2007. Was one of the reasons behind this that you had to do some technical changes with the engine or that you found ways to improve your game technology?
Tim Sweeney: We didn't reschedule anything. UT3 has always been about being done when it's done. We're taking our time with the game because the UT franchise is very important to us and we want to get it right for this, the third generation in the series.
PCGH: You are using deferred shading. Will there be any chance to get FSAA working with DX9-Level-cards? What about DX10-cards?
Tim Sweeney: Unreal Engine 3 uses deferred shading to accelerate dynamic lighting and shadowing. Integrating this feature with multisampling requires lower-level control over FSAA than the DirectX9 API provides. In Gears of War on Xbox 360, we implemented multisampling using the platform's extended MSAA features. On PC, the solution is to support multisampling only on DirectX 10.
Sulle schede dx9 pc, non sarà possibile attivare l'antialiasing.
Su x360 invece è stato possibile l'MSAA4x, grazie a particolari features dell'hw.
Solo le schede dx10 avranno il supporto all'antialiasing.
PCGH: Can you at this point of development tell our readers what kind of hardware will be required to play the game with all detail in 1024x768 (No FSAA/AF) and 1.600x1.200 (with 4xFSAA - if available - and 8:1 AF)? Will there be any fallback modes for gamers with older hardware like Shader 2.0 cards?
Tim Sweeney: Optimization is still ongoing, so these numbers change on a daily basis. In general, our Unreal Engine 3 games run quite well on DirectX9 class hardware that NVidia and ATI released in 2006 and later, and amazingly well on the high-end cards including DirectX 10 cards. We also support Shader Model 2.0 hardware with minimal visual difference.
Molto interessante l'affermazione, secondo cui, con schede sm2.0, non si avranno particolari differenze visive... ^_^
Le schede x800 di ATI funzioneranno ancora a pieno regime. :D
PCGH: Can player speed up performance remarkably by buying a second card for a SLI- or Crossfire system? Have you already measured/experienced differences between those two systems?
Tim Sweeney: We test on SLI configurations on a regular basis. There impact at higher resolutions is significant so if you want to experience the full beauty at high resolutions this is a great way to preserve performance while doing so. We haven't had a chance to run on Crossfire yet, but would expect similar results.
Non hanno nemmeno provato il gioco sul crossfire.. :rolleyes:
PCGH: Could you in a couple of sentences sum up the technical as well as the visual highlights of the Unreal Engine 3 and especially UT 3 that will make your product superior to other competitors like Crytek (Cry Engine 2) id (doom 3 engine with megatexture technique)?
Tim Sweeney: We let our games speak for themselves.
PCGH: When did you get your first next-gen-hardware (DX 10-cards) to fiddle apart from console stuff?
Tim Sweeney: Our early access to hardware is generally covered by non-disclosure agreement.
Non si sbottonano.. ma forse perchè sanno che Crysis uscirà tardi.
PCGH: What is your experience with Nvidia's and Ati's next generation graphics hardware? Could you already make a statement which card will be better for UT 3, the 8800 GTX or the Radeon 2900 XTX?
Tim Sweeney: The relative performance scores between NVidia's and ATI's best cards vary from day to day as we implement new optimizations. But, for the past year, NVidia hardware has been ahead fairly consistently, and a few months ago we standardized on Dell XPS machines with GeForce 8800 GTX's for all of our development machines at Epic.
Ovviamente nel 2006, nVidia con le 8800 era decisamente più veloce della concorrente ATI con le 1900...
La questione importante però, è che pare che il gioco sia stato sviluppato e ottimizzato sulle GTX... (ok che EPIC è sempre stata pro-Nvidia :D e Sweeny.. ehm.. :asd: ).
Cmq, in quanto a "timing", punto a favore per nVidia anche per quanto riguarda UT2007...E' riuscita a legare molto bene le richieste degli sviluppatori con lo sviluppo hw.
Ati invece, segue sempre delle strade sue, aderenti alle specs dx dettate da Ms e con features innovative. Atteggiamento condivisibile o meno, a seconda delle simpatie. :D
PCGH: Are there any plans at Epic to upgrade the engine for DX 10? Have you already made experience with Microsoft's new API?
Tim Sweeney: Yes, we'll ship Unreal Tournament 3 with full DirectX 10 support. Support for multisampling is the most visible benefit. We're also able to use video memory more efficiently on Windows Vista under DirectX 10, enabling a given machine to use higher-detail texture settings than are possible in Windows Vista under DirectX 9. Most of Unreal Engine 3's effects are bound by fill-rate rather than by higher-level features like hardware geometry processing, so the real impact of DirectX 10 is incrementally better performance rather than entirely new features.
Altra brutta notizia per ATI: il gioco è fillrate limited e non punta nulla sul geo-processing via hw (collision detection via GPU, fisica ecc).
La nuova architettura ATI ha invece posto il forte accento su queste ultime features e sulla forte programmabilità (alta potenza matematica), invece di incrementare assai il fillrate facendo crescere in dimensione l'hw fixed function (TMU e ROPs in primis), come ha fatto nVidia col G80!
Dalle premesse, vedo nuovo e molto lavoro per il team dei catalyst su questo titolo...
PCGH: Do UT 3 gamers profit from a 64 Bit environment? Will there be a 64 Bit version? What are the advantages of the 64 Bit version? Are there any differences as far as visuals or performance is concerned?
Tim Sweeney: We're testing Unreal Tournament 3 with Windows Vista 64-bit to assure compatibility, but we're planning to wait for the OS and application base to mature before doing anything further to really exploit 64-bit.
We were the first developer to port to the 64-bit environment back in 2004, with 64-bit Windows XP and Unreal Tournament 2004. We were very eager to embrace Windows Vista 64-bit also, and hoped to have moved all of our development machines over to it by now. Unfortunately, the software and driver compatibility still isn't quite there. The base OS is very stable, and it's a joy to work with in isolation. But, then, you need to print something, or run Max or Maya along with a collection of third-party plug-ins, and it all unravels. I'm sure the issues will be worked out with service packs and app updates within the Windows Vista generation, as machines with 4-8GB are finally becoming economical, and could be mainstream in the next 12 months.
Supporto farlocco ai 64bit... :rolleyes:
Aggiunge però che la base del nuovo OS è molto stabile :) ma che ci sono ancora problemi di immaturità driver.
PCGH: How important will main memory be for the overall performance? How much memory would you recommend?
Tim Sweeney: We require at least 512MB, and you'll want at least 2 gigabytes for optimal performance and detail. Unreal Engine 3 is very scalable in terms of memory usage, so it runs well on low-memory machines at the low texture-detail setting.
Ce la faranno più o meno tutti.
Ormai 2GB di ddr2 costano 80 euro...
PCGH: It is well known that your engine supports multi core CPUs. What is the maximum number of threads the engine can calculate? What is the performance gain when you play UT 3 with a quad core CPU? Will the engine even support future CPU with more than four cores?
Tim Sweeney: Unreal Engine 3's threading support is quite scalable. We run a primary thread for gameplay, and a secondary thread for rendering. On machines with more than two cores, we run additional threads to accelerate various computing tasks, including physics and data decompression. There are clear performance benefits to quad-core, and though we haven't looked beyond that yet, I expect further gains beyond quad-core in future games within the lifetime of Unreal Engine 3.
Molti benefici dai dual-core, alcuni in più dai quad. :oink:
PCGH: Can UT 3 be played with full detail on a single core machine?
Tim Sweeney: You can play UT3 at any detail level on any machine; the dependent variable is the frame rate! If you have a fast GPU (and thus aren't GPU-bound), then you'll notice significant performance gains going from a single-core PC to a dual-core PC, and incremental improvements in going to quad-core, at a constant clock rate.
Il maggior salto ci sarà nel passaggio da single a dual core.
PCGH: Are there any things you learned while developing Gears of War for next gen consoles that you can now benefit from when finalizing UT 3 for the PC?
Tim Sweeney: The Gears of War experience on Xbox 360 taught us to optimize for multi-core, and to improve the low-level performance of the key engine systems. This has carried over very well to PC. The division of UE3's rendering and gameplay into separate threads, implemented originally for 360, has brought even more significant gains on PC where there is a more heavyweight hardware abstraction layer in DirectX, hence more CPU time spent in rendering relative to gameplay.
Also, the 360 work we did resulted in an engine that also runs well on low-end and mid-range PCs. This is very important for games today;
the high-end PC gaming market alone is not big enough to support next-generation games with budgets in the $10-20M range. You need to run on ordinary mass-market PCs as well. In reading PC gaming websites, one might get the impression that everyone owns a dual-core PC with a pair of $600 GPUs in SLI configuration, but the reality is very different. More than 80% of PCs sold today are still single-core, and have very low-end DirectX9 graphics capabilities. Unreal Engine 3 supports those configurations well.
E chi l'ha detto che le console sono brutte e cattive? :D
Il lavoro relativo al multithreading fatto su 360, ha aiutato molto lo sfruttamento del multicore pc, sennò co' sta cipp@ che ci sarebbero stati questi incrementi. :)
Sempre che si prendano le parole di Sweeny per buone... :D
webbuffa
04-06-2007, 13:01
Ma il bello è che non se ne lamentano i possessori, ma solo chi non la possiede.
:D Da incorniciare.
non male... comincia a rodermi di averla presa appena uscita :doh:
secondo me dimenticate il sistema in toto usato per la prova e soprattutto il Q6850,forse ce l'avete o pensate d comprarlo?...io so solo che già l'x6800(per dire quello della serie xtreme precedente) costa ancora quanto un pc soltanto lui :D imho il 12... al 3d06 non è chissàchè
Danielao
04-06-2007, 13:06
Qualcuno di voi l'ha testata con Lotro? A me le frequenze restano sempre in 2D a 1680X1050 ed anche a frequenze inferiori.
Free Gordon
04-06-2007, 13:06
Visto che i buchi per il fissaggio sono gli stessi, credo che si possa montare, ma credo che nessuno qui sul forum lo abbia ancora provato. Ed in ogni caso, dubito che possa tenere a bada tutti i watt che deve dissipare r600... Già leggevo che con le 1900xt le temperature erano superiori rispetto al dissi stock, anche se lo zalman ovviamente era molto più silenzioso
Non è vero. ;)
poi riguardo alla storia che si leggeva sul forum della 1900 dove col zalman le temp erano piu alte del dissi originale mi hanno sempre fatto un po pensare, per il semplice motivo che a me le temp si sono abbassate di 20 gradi e anche piu sia in idle che in full......boh misteri.
Esatto. :D
Imho l'ultimo zalman potrebbe tenere la 2900 a temperature accettabili (come il dissi stock), e silenziosa..
webbuffa
04-06-2007, 13:07
secondo me dimenticate il sistema in toto usato per la prova e soprattutto il Q6850,forse ce l'avete o pensate d comprarlo?...io so solo che già l'x6800(per dire quello della serie xtreme precedente) costa ancora quanto un pc soltanto lui :D imho il 12... al 3d06 non è chissàchè
:rolleyes: Infatti... non vedo assolutamente nessun miglioramento... con un processore del genere anche la 512 raggiunge quel punteggio. Almeno credevo che le GDDR4 funzionassero meglio... ma invece... niente :D
I test sotto XP e sotto Vista stanno a dimostrare in modo evidente che i driver sono un problema reale, visto come si colloca la scheda rispetto alla concorrenza nei due sistemi operativi diversi. Quindi non sorprende che in DX10 faccia pena, visto che i test in DX10 si fanno sotto Vista.
;)
I drivers sono fondamentali...
Chi ha seguito questo th dall'inizio e comunque si è ben informato sa bene che su XP la 2900XT se dotata degli ultimi drivers, non solo batte la GTS, ma insidia pure la GTX...
Molto interessante l'affermazione, secondo cui, con schede sm2.0, non si avranno particolari differenze visive... ^_^
Le schede x800 di ATI funzioneranno ancora a pieno regime. :D
evvai! http://board.progaming.it/images/smilies/headbang2.gif
Molti benefici dai dual-core, alcuni in più dai quad. :oink:
Il maggior salto ci sarà nel passaggio da single a dual core.
ottimo, finalmente si inizia a muovere qualcosa :)
ottimo, finalmente si inizia a muovere qualcosa :)
infatti io ho ancora un single core proprio per questo.d sicuro l'architettura d un core 2 è d un altro pianeta rispetto ai single core precedenti ma io sono abituato a comprare le cose quando servono veramente.e forse è arrivata l'ora :D
Nvidia almeno fa driver ke danno boost, non come i 7.5
Direi che e' meglio dare uno stop ai post che provocano gli utenti e spezzano discussioni in via di sviluppo: in un thread di questo tipo e' ovvio che poi scatenano flames.
Cerchiamo di automoderarci, non che debba sempre essere qualcuno a doverle ricordare certe cose.
Non vorrei doverlo ripetere la prossima volta per cui non lo faro' e cominciero' con le sospensioni.
webbuffa
04-06-2007, 13:43
Direi che e' meglio dare uno stop ai post che provocano gli utenti e spezzano discussioni in via di sviluppo: in un thread di questo tipo e' ovvio che poi scatenano flames.
Cerchiamo di automoderarci, non che debba sempre essere qualcuno a doverle ricordare certe cose.
Non vorrei doverlo ripetere la prossima volta per cui non lo faro' e cominciero' con le sospensioni.
:) Vorrei ricordare che una 8800GTX appena uscita, su processore dual core, faceva 9600 punti al 3d mark 06... quindi non iniziamo a catalogare male le cose eh...
Il boost ci sarà altrimenti ne terremo conto. Ora non istigate il flame.
Imho l'ultimo zalman potrebbe tenere la 2900 a temperature accettabili (come il dissi stock), e silenziosa..
potrebbe anche essere così, ma hai mai messo la mano dietro dove esce l'aria calda della scheda video?, in render 3d non la riesci a tenere per piu di una decina di secondi, te lo immagini tutto quel calore soffiato direttamente dentro al case, e sul dissi della cpu... imho meglio il dissi stock a stò punto, almeno l'aria bollente viene esplulsa dal case senza coinvolgere altri componenti
Free Gordon
04-06-2007, 13:46
:rolleyes: Infatti... non vedo assolutamente nessun miglioramento... con un processore del genere anche la 512 raggiunge quel punteggio. Almeno credevo che le GDDR4 funzionassero meglio... ma invece... niente :D
Il problema non è funzionare bene o male.. il problema è "dove sta il collo di bottiglia"? :D
Perchè è molto molto probabile che 512MB nel 3dmark06 siano più che sufficienti.. e che i 22GB/s di banda in più della vers da 1GB, in quelle condizioni di test, difficilmente facciano la differenza. ;)
La versione da 1GB è sensata per chi la scheda la vorrà tenere per ALMENO due anni e avrà dei vantaggi nel momento in cui funzioneranno meglio i meccanismi di AA introdotti con R600 e con alti livelli dei filtri stessi. Mi viene da pensare alla modalità 8x con edge detect. ;)
Cmq, si vedranno i bench i prossimi mesi con giochi che allocheranno molta memoria video.
webbuffa
04-06-2007, 13:50
Il problema non è funzionare bene o male.. il problema è "dove sta il collo di bottiglia"? :D
Perchè è molto molto probabile che 512MB nel 3dmark06 siano più che sufficienti.. e che i 22GB/s di banda in più della vers da 1GB, in quelle condizioni di test, difficilmente facciano la differenza. ;)
La versione da 1GB è sensata per chi la scheda la vorrà tenere per ALMENO due anni e avrà dei vantaggi nel momento in cui funzioneranno meglio i meccanismi di AA introdotti con R600 e con alti livelli dei filtri stessi. Mi viene da pensare alla modalità 8x con edge detect. ;)
Cmq, si vedranno i bench i prossimi mesi con giochi che allocheranno molta memoria video.
;) Molto corretto, grazie del chiarimento.
Free Gordon
04-06-2007, 13:52
potrebbe anche essere così, ma hai mai messo la mano dietro dove esce l'aria calda della scheda video?, in render 3d non la riesci a tenere per piu di una decina di secondi, te lo immagini tutto quel calore soffiato direttamente dentro al case, e sul dissi della cpu... imho meglio il dissi stock a stò punto, almeno l'aria bollente viene esplulsa dal case senza coinvolgere altri componenti
Dipende da come hai fatto il sistema di espulsione dell'aria calda dal case. Cmq urgono delle prove, solo che quì non ci sono cavie che vogliono farle... :D
Alexkidd85
04-06-2007, 13:58
cmq se proprio dobbiamo parlare di 3d mark come qualcuno prima mi suggeriva...ho visto sul 3d dei test sulla 2900xt che a 840/1960 si arriva ai 10100....mi sembrano result bassi a mio avviso...non ho mai usato i 3d mark per confrontare le vga e non lo farò adesso lo facico notare solo a chi magari gli da più peso....cavoli parliamo di 840mhz di core!! se le vere potenzialità di R600 sonio ancora nascoste bè... sono nascoste davvero bene...:D
speriamo si riprendano davvero con i driver...le unice vga che mi hanno convinto ultimamente della ati sono la serie x1950....sto R600 mi puzza di x1800.... sparata fuori mesi e mesi in ritardo stirata in frequenza da morire per riprendere di un gradino la 7800gtx...spero per ati e amd che ritornino in carreggiata...perchè sta scheda davvero non mi convince affatto...di K10 AMD non se ne sa nulla ancora...sto giro intel e nvidia hanno davvero spaccato a mio avviso...bè anche loro hanno avuto le loro lacune in passato vedi serie 5 nvidia e i pentium precotti della intel...mi sa che stavolta xò tocca a amd/ati il giro "storto"
Come detto anche altre volte,ricordo come molti sapranno che gli 800mhz di ati non corrispondono a prestazioni uguali a 800mhz di nvidia(causa architettura diversa).
Quindi non considerando questo tu ti stupisci come a 840 la ati faccia determinate prestazioni...sbagliato...la ati a 840 fa le prestazioni che farebbe una 8800gtx a 650mhz (per esempio e parlo solo di esempio...poi il tempo giudicherà se o meno è così).
Spero notiate in firma che VGA ho(e vengo da ati anche perché sul 3d di attesa c'ero anche io e lo sapete ;)). Questo per dire che non è vero che tutta la gente che sta qua ed ha una nvidia guarda il 3d solo per flammare... ;)
Si discute gente...basta saper dire le cose :)
test 3d mark sulla nuova 2900 con 1gb ddr4 e CPU Core 2 Extreme Kenstfield Q6850 a 4GHz, Asus P5K-D, GSKILL 2GBHZ a 1000 CL4 e alimentatore TT 1200W
先配上3.6G
預設
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
http://www.coolaler.com/forum/showthread.php?t=154586
Qui siamo bassini ancora(i driver penso saranno gli stessi o quasi ma comunque persistono anche qua i problemi di "ottimizzazione"...il quad6700 di dj883u2 e il quad6600 di bestio con la gtx schiacciano l'occhiolino ai 15000...
Comunque penso che sia questa la vera "rivale" della gtx...quelle frequenze spinte ancora di più sulle memorie e le ddr4...penso diano la giusta svolta...chissà :D
:) Vorrei ricordare che una 8800GTX appena uscita, su processore dual core, faceva 9600 punti al 3d mark 06... quindi non iniziamo a catalogare male le cose eh...
Il boost ci sarà altrimenti ne terremo conto. Ora non istigate il flame.
Sono dell'idea che il boost non sia da aspettare ora con 0 titoli Dx10 da sfruttare. Sono convinto che in futuro nuovi drivers apriranno nuovi spiragli di luce ma allo stesso tempo sono anche consapevole e realista sul fatto che nel momento in cui anche i giochi Directx10 di grosse societa' capaci come Crytek, Valve, ID ecc doveSSERO (n.b. !) non riuscire a tirare fuori l'ipotetico potenziale dalla scheda con drivers avanzati, allora potrebbe essere anche plausibile che la scheda dovra' essere rivalutata come il prezzo lascerebbe intendere, e cioe' come una soluzione si estrema ma in vista di un "figlio piu' fortunato" e meno legato a un architettura forse troppo complessa e accompagnata da uno sfortunato momento nell'evoluzione dei processi produttivi.
Ci sono fattori che lasciano il sottoscritto leggermente dubbioso su tutta la storia, ma non mi metto ne da una parte ne dall'altra semplicemente e' interessantissimo valutare da persone serie tutto il panorama non solo uno spicchio.
Riguardo la versione da 1Gb GDDR4, questa potrebbe essere vista sia come una mossa "per il futuro" con cognizione dei molti capoccioni che lavorano per queste aziende e sanno come i giochi evolveranno, oppure come un tentativo estremo di spingere qualcosa che non si puo' spingere altrimenti.
[QUOTE=Alexkidd85;17393697]Come detto anche altre volte,ricordo come molti sapranno che gli 800mhz di ati non corrispondono a prestazioni uguali a 800mhz di nvidia(causa architettura diversa).
Quindi non considerando questo tu ti stupisci come a 840 la ati faccia determinate prestazioni...sbagliato...la ati a 840 fa le prestazioni che farebbe una 8800gtx a 650mhz (per esempio e parlo solo di esempio...poi il tempo giudicherà se o meno è così).
Spero notiate in firma che VGA ho(e vengo da ati anche perché sul 3d di attesa c'ero anche io e lo sapete ;)). Questo per dire che non è vero che tutta la gente che sta qua ed ha una nvidia guarda il 3d solo per flammare... ;)
Si discute gente...basta saper dire le cose :)
infatti non mi riferivo con un termine di paragone diretto! mi pare ovvio! sarei un'incompetente patentato a sostenere una roba del genere! ma sottolineavo come cmq sono delle frequenze altissime per una vga e sinceramente mi aspettavo molto di più da questa vga
non mi è piaciuta la politica di ati...ma penso che questo oramai l'hanno capito tutti non è necessario che lo ripeta;)
cmq io sono disposto ancora a fare qualche test comparativo con una 2900 con le frequenze più alte che si riescono a tenere in daily per giocare non come frequenza massima benchabile...conto la mia a 650/2000
insomma voglio vederla a l'opera da parte di qualche utente che la usa! con non so qualche bench game tipo FEAR o altro fate voi;)
Altra brutta notizia per ATI: il gioco è fillrate limited e non punta nulla sul geo-processing via hw (collision detection via GPU, fisica ecc).
La nuova architettura ATI ha invece posto il forte accento su queste ultime features e sulla forte programmabilità (alta potenza matematica), invece di incrementare assai il fillrate facendo crescere in dimensione l'hw fixed function (TMU e ROPs in primis), come ha fatto nVidia col G80!
Secondo me la scelta è stata determinata dal creare un motore grafico il più possibile flessibile, sia in termini di risorse hardware che di librerie: rimane comunque un motore DX9+10. ;)
Comunque credo che le HD2900 dovrebbero comunque comportarsi bene in questo gioco, visto che le prestazioni nell'unico gioco che per ora sfrutta l'UE3 (R6V) sono al pari delle GTX.
Piuttosto credo che difficilmente vedremo giochi che sfrutteranno abbastanza i geometry shaders per ora... Se è vero quanto letto finora la debolezza delle nVidia in quel campo è imbarazzante, quindi non credo che le SH vogliano fare giochi che sulle vga di una grossa fetta del mercato non girano bene...
Quindi penso che giochi del genere si vedranno solo l'anno prossimo, forse: quando nVidia avrà colmato questo gap. In quel momento potrebbe allora venir fuori il reale valore di queste schede. ;)
Ragazzi in sintesi,architetturalmente parlando,quali sono i limiti e i punti forte della Ati 2900 xt e Nvidia 8800 gtx?
Come si prospetterebbe il futuro dei giochi a livello di sfruttabilità delle schede ?
Grazie :)
Ragazzi in sintesi,architetturalmente parlando,quali sono i limiti e i punti forte della Ati 2900 xt e Nvidia 8800 gtx?
Come si prospetterebbe il futuro dei giochi a livello di sfruttabilità delle schede ?
Grazie :)
Come è giusto che sia, coi primi giochi DX10 andranno benone, ma già con l'ondata di giochi After-Crysis bisognerà fare i giusti compromessi per giocare decentemente, in pratica saranno i VERI giochi Next-Gen... ;)
O almeno così si dice in rete...
Inoltre i primi bench parlano da soli, Call Of Juarez in DX10, la 2900XT fa 20FPS la GTX ne fa 25, è una vittoria di pirro, 25FPS di media sono malapena accettabili anche se al massimo del dettaglio...
Come è giusto che sia, coi primi giochi DX10 andranno benone, ma già con l'ondata di giochi After-Crysis bisognerà fare i giusti compromessi per giocare decentemente, in pratica saranno i VERI giochi Next-Gen... ;)
O almeno così si dice in rete...
Inoltre i primi bench parlano da soli, Call Of Juarez in DX10, la 2900XT fa 20FPS la GTX ne fa 25, è una vittoria di pirro, 25FPS di media sono malapena accettabili anche se al massimo del dettaglio...
CoJ non è nativo in DX10 e un confronto non lo puoi fare..
Anche perchè se nn ricordo male COj era pesante pure in Dx9 :\
CoJ non è nativo in DX10 e un confronto non lo puoi fare..
Anche perchè se nn ricordo male COj era pesante pure in Dx9 :\
Sempre un indice di confronto è...
Nel momento in cui vai ad applicare gli effetti DX10 le prestazioni crollano...
Inoltre... Credi che i prossimi giochi siano molto meno pesanti al max del dettaglio? ;)
Se ti dico Lost Planet? ;)
halduemilauno
04-06-2007, 18:20
http://forums.vr-zone.com/showthread.php?t=157629
Core 2 Extreme Kenstfield Q6850 at 3.6GHz
Default 743/1000 :
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
Core 2 Extreme Kenstfield Q6850 at 4GHz, Asus P5K-D, GSKILL 2GBHZ @ 1000 CL4, TT 1200W PSU, TR 120-X
Default 743/1000 :
3Dmark01.......................68753
3Dmark03.......................39360
3Dmark05.......................22842
3Dmark06.......................12944
OC 858/1153
3Dmark01.......................69669
3Dmark03.......................43351
3Dmark05.......................23978
3Dmark06.......................14439
Crossfire at 16x+4x but second card stuck at 500/500. Only 8x+8x or 16x+16x mode can run the second card at full speed.
3Dmark03.......................60120
3Dmark05.......................26586
3Dmark06.......................19390
;)
Tidus.hw
04-06-2007, 18:24
Ragazzi in sintesi,architetturalmente parlando,quali sono i limiti e i punti forte della Ati 2900 xt e Nvidia 8800 gtx?
Come si prospetterebbe il futuro dei giochi a livello di sfruttabilità delle schede ?
Grazie :)
R600 e' fillrate limited, ma ha una grossa potenza di calcolo negli shader, mentre G80 e' piu' bilanciata come architettura...
Non e' facile dire quali andranno meglio in futuro, coi giochi attuali sicuramente e' piu' avvantaggiata la 8800 perche' ha piu' rops e mtu... tutto imho ovviamente...
http://forums.vr-zone.com/showthread.php?t=157629
Core 2 Extreme Kenstfield Q6850 at 3.6GHz
Default 743/1000 :
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
Core 2 Extreme Kenstfield Q6850 at 4GHz, Asus P5K-D, GSKILL 2GBHZ @ 1000 CL4, TT 1200W PSU, TR 120-X
Default 743/1000 :
3Dmark01.......................68753
3Dmark03.......................39360
3Dmark05.......................22842
3Dmark06.......................12944
OC 858/1153
3Dmark01.......................69669
3Dmark03.......................43351
3Dmark05.......................23978
3Dmark06.......................14439
Crossfire at 16x+4x but second card stuck at 500/500. Only 8x+8x or 16x+16x mode can run the second card at full speed.
3Dmark03.......................60120
3Dmark05.......................26586
3Dmark06.......................19390
;)
Al 3DMark06 con entrambe @ OC @ 858/1153Mhz?
Chissà che punteggione... ;)
Tidus.hw
04-06-2007, 18:26
http://forums.vr-zone.com/showthread.php?t=157629
Core 2 Extreme Kenstfield Q6850 at 3.6GHz
Default 743/1000 :
3Dmark01.......................63713
3Dmark03.......................38777
3Dmark05.......................21480
3Dmark06.......................12769
OC 858/1153
3Dmark01.......................65491
3Dmark03.......................42680
3Dmark05.......................22607
3Dmark06.......................14255
Core 2 Extreme Kenstfield Q6850 at 4GHz, Asus P5K-D, GSKILL 2GBHZ @ 1000 CL4, TT 1200W PSU, TR 120-X
Default 743/1000 :
3Dmark01.......................68753
3Dmark03.......................39360
3Dmark05.......................22842
3Dmark06.......................12944
OC 858/1153
3Dmark01.......................69669
3Dmark03.......................43351
3Dmark05.......................23978
3Dmark06.......................14439
Crossfire at 16x+4x but second card stuck at 500/500. Only 8x+8x or 16x+16x mode can run the second card at full speed.
3Dmark03.......................60120
3Dmark05.......................26586
3Dmark06.......................19390
;)
quindi vga della serie HD2x00 possono operare in crossfire anche a frequenze diverse?
halduemilauno
04-06-2007, 18:26
Al 3DMark06 con entrambe @ OC @ 858/1153Mhz?
si. con il procio a due frequenze diverse. 3600 e 4000.
si. con il procio a due frequenze diverse. 3600 e 4000.
per curiosità...ho capito che il p35 almeno su asus p5k ha un pci-e 16x+4x ma l'x38...avete notizie? sarà 16x+16x?
Inoltre i primi bench parlano da soli, Call Of Juarez in DX10, la 2900XT fa 20FPS la GTX ne fa 25, è una vittoria di pirro, 25FPS di media sono malapena accettabili anche se al massimo del dettaglio...
e a che risoluzione poi...neanche fosse 2560x1600,mi sa che gli hardcore gamers se la sognano per un bel pò con le dx10...però :confused: dimenticavo l'SLI :) chissà
Tidus.hw
04-06-2007, 18:48
e a che risoluzione poi...neanche fosse 2560x1600,mi sa che gli hardcore gamers se la sognano per un bel pò con le dx10...
guarda che anche coi giochi attuali si fa fatica a giocare a quella risoluzione...
appleroof
04-06-2007, 19:04
Inoltre i primi bench parlano da soli, Call Of Juarez in DX10, la 2900XT fa 20FPS la GTX ne fa 25, è una vittoria di pirro, 25FPS di media sono malapena accettabili anche se al massimo del dettaglio...
Si ma 2 beta (perchè questo sono) vogliono dire ben poco, questo vale per entrambe le schede...io credo che le prime somme si potranno davvero tirare con la versione definitiva di Lost planet dx10 ma sopratutto con Crysis che credo sarà davvero il primo gioco che attingerà di più dalle nuove librerie....
per il resto, io cmq non mi aspetto faville dalla mia vga (non parlo della 2900 perchè sennò potrebbe essere molto probabilmente considerato flammoso :) ) in dx10, nel senso che non mi aspetto che faccia viaggiare un gioco come Crysis a 1920x1200 come fà con i giochi dx9, sicuramente dovrò scendere a compromessi sopratutto con i filtri (ma se compromessi vorranno dire ad esempio 1680x1050 aa2x af8x dettagli gioco medio-alti...bè, scusate eh..?:D :D )....però è sempre stato così: quale vga è mai riuscita a "resistere" per un anno pieno tutto ma proprio tutto sparato al max con tutti i giochi? sopratutto con l'accelerazione che questi hanno avuto negli ultimi anni....
cmq, lasciate stare una patch posticcia e una demo beta, ripeto, è ancora presto per fare previsioni più o meno sicure per le dx10, tanto con le 8xxx che con le 2900, secondo me :)
per curiosità...ho capito che il p35 almeno su asus p5k ha un pci-e 16x+4x ma l'x38...avete notizie? sarà 16x+16x?
il p35 dell'asus dovrebbe avere un chip che invece di fare che la velocità del pci-e sia 16x+4x diventi 8x+8x, questo dovrebbe garantire prestazioni superiori
l'X38 dovrebbe essere 16x+16x+8/4x
Athlon 64 3000+
04-06-2007, 19:32
R600 e' fillrate limited, ma ha una grossa potenza di calcolo negli shader, mentre G80 e' piu' bilanciata come architettura...
Non e' facile dire quali andranno meglio in futuro, coi giochi attuali sicuramente e' piu' avvantaggiata la 8800 perche' ha piu' rops e mtu... tutto imho ovviamente...
Un po' come R580 e G71 dove la gpu ati ha una grossa capacità nei pixel shader con lunghe istruzioni.
Su R600 si è sempre detto della grande capità poligonale ma credo che anche nei pixel shader come è R580 abbia una gran potenza di calcolo puerchè questi abbiano istruzioni molto lunghe.
davide155
04-06-2007, 20:16
Si ma 2 beta (perchè questo sono) vogliono dire ben poco, questo vale per entrambe le schede...io credo che le prime somme si potranno davvero tirare con la versione definitiva di Lost planet dx10 ma sopratutto con Crysis che credo sarà davvero il primo gioco che attingerà di più dalle nuove librerie....
cmq, lasciate stare una patch posticcia e una demo beta, ripeto, è ancora presto per fare previsioni più o meno sicure per le dx10, tanto con le 8xxx che con le 2900, secondo me :)
Finalmente qualcuno che sa ragionare :O
Free Gordon
04-06-2007, 20:21
Secondo me la scelta è stata determinata dal creare un motore grafico il più possibile flessibile, sia in termini di risorse hardware che di librerie: rimane comunque un motore DX9+10. ;)
Comunque credo che le HD2900 dovrebbero comunque comportarsi bene in questo gioco, visto che le prestazioni nell'unico gioco che per ora sfrutta l'UE3 (R6V) sono al pari delle GTX.
R6V non usa proprio l'UE3, ma una versione a cavallo tra il vecchio UE2 e il nuovo. In mezzo forse c'è anche una spruzzata di Vengeance engine.. :D
Si comporteranno bene, ma questo dipenderà molto da come lo ottimizzeranno per R600.
Piuttosto credo che difficilmente vedremo giochi che sfrutteranno abbastanza i geometry shaders per ora... Se è vero quanto letto finora la debolezza delle nVidia in quel campo è imbarazzante, quindi non credo che le SH vogliano fare giochi che sulle vga di una grossa fetta del mercato non girano bene...
Quindi penso che giochi del genere si vedranno solo l'anno prossimo, forse: quando nVidia avrà colmato questo gap. In quel momento potrebbe allora venir fuori il reale valore di queste schede. ;)
L'anno prossimo?? :D
Ottimista... :sofico:
Sono due anni che è uscito il chip sm3.0 di ATI e ancora non hanno sfruttato la metà delle features che ha... :read:
Questo purtroppo è il problema di avere due case che hanno due filosofie differenti e una penetrazione nel mercato differente (oltre che un differente approccio con gli sviluppatori... Chi ha detto TWIMTBP? :) )
-Feanor-
04-06-2007, 20:29
Si ma 2 beta (perchè questo sono) vogliono dire ben poco, questo vale per entrambe le schede...io credo che le prime somme si potranno davvero tirare con la versione definitiva di Lost planet dx10 ma sopratutto con Crysis che credo sarà davvero il primo gioco che attingerà di più dalle nuove librerie....
per il resto, io cmq non mi aspetto faville dalla mia vga (non parlo della 2900 perchè sennò potrebbe essere molto probabilmente considerato flammoso :) ) in dx10, nel senso che non mi aspetto che faccia viaggiare un gioco come Crysis a 1920x1200 come fà con i giochi dx9, sicuramente dovrò scendere a compromessi sopratutto con i filtri (ma se compromessi vorranno dire ad esempio 1680x1050 aa2x af8x dettagli gioco medio-alti...bè, scusate eh..?:D :D )....però è sempre stato così: quale vga è mai riuscita a "resistere" per un anno pieno tutto ma proprio tutto sparato al max con tutti i giochi? sopratutto con l'accelerazione che questi hanno avuto negli ultimi anni....
cmq, lasciate stare una patch posticcia e una demo beta, ripeto, è ancora presto per fare previsioni più o meno sicure per le dx10, tanto con le 8xxx che con le 2900, secondo me :)
ti quoto ;) ....ad ogni modo tra le promesse di dx 10 ricordo che c'era l'eliminazione dell'overhead....e quindi piu operazioni compibili praticamente, a ciclo di clock....ora non dico che un gioco in versione dx9 e dx10 al massimo dettaglio entrambi generino su stesso hardware stesso num di fps....ma un po ci voglio sperare..:fagiano: :muro: .....naturalmente non parlo di conversioni piu o meno penose...ma di motori nativi...........inoltre lasciatemi aggiungere che una fonte autorevolissima rivela che bioshock gira fluidamente a 1920 x 1080 con una singola 8800.....anche se purtroppo mi sa che si parla della versione dx 9......:muro:
Free Gordon
04-06-2007, 20:31
Si ma 2 beta (perchè questo sono) vogliono dire ben poco, questo vale per entrambe le schede...io credo che le prime somme si potranno davvero tirare con la versione definitiva di Lost planet dx10 ma sopratutto con Crysis che credo sarà davvero il primo gioco che attingerà di più dalle nuove librerie....
per il resto, io cmq non mi aspetto faville dalla mia vga (non parlo della 2900 perchè sennò potrebbe essere molto probabilmente considerato flammoso :) ) in dx10, nel senso che non mi aspetto che faccia viaggiare un gioco come Crysis a 1920x1200 come fà con i giochi dx9, sicuramente dovrò scendere a compromessi sopratutto con i filtri (ma se compromessi vorranno dire ad esempio 1680x1050 aa2x af8x dettagli gioco medio-alti...bè, scusate eh..?:D :D )....però è sempre stato così:
sopratutto con l'accelerazione che questi hanno avuto negli ultimi anni....
cmq, lasciate stare una patch posticcia e una demo beta, ripeto, è ancora presto per fare previsioni più o meno sicure per le dx10, tanto con le 8xxx che con le 2900, secondo me :)
LP è un gioco 360.. e nella sua versione dx10 non aggiunge praticamente nulla al gran gioco che è su console..
Mi pare un pò "poco" come gioco dx10. ;)
quale vga è mai riuscita a "resistere" per un anno pieno tutto ma proprio tutto sparato al max con tutti i giochi?
L'unica è stata la 9700pro. :D
appleroof
04-06-2007, 20:51
ti quoto ;) ....ad ogni modo tra le promesse di dx 10 ricordo che c'era l'eliminazione dell'overhead....
si ma se tolgono "peso" alla cpu caricano di più la gpu, credo sia anche per questo che le vga dx10 (ciascuna nella propria fascia) siano enormemente più dotate rispetto a quelle di pari fascia dx 9.....
LP è un gioco 360.. e nella sua versione dx10 non aggiunge praticamente nulla al gran gioco che è su console..
Mi pare un pò "poco" come gioco dx10. ;)
esatto, proprio quello che intendevo.....inoltre ripeto (anche se ha meno importanza relativa secondo me) è una demo beta, non è la versione definitva del gioco, ed è espressamente detto a chiare lettere quando si lancia il demo, non so se questo vorrà significare che il gioco andrà a 100fps nella veste definitiva, però è da tenere in conto
L'unica è stata la 9700pro. :D
mah....!! :asd:
;)
MonsterMash
04-06-2007, 21:15
R6V non usa proprio l'UE3, ma una versione a cavallo tra il vecchio UE2 e il nuovo. In mezzo forse c'è anche una spruzzata di Vengeance engine.. :D
Si comporteranno bene, ma questo dipenderà molto da come lo ottimizzeranno per R600.
Ti sbagli. R6V usa proprio l'UE3, era splinter cell: double agent che usava il 2.5, ovvero un UE2 pesantemente ammodernato.
Anche se, è palese, utilizza solo una minima parte delle features di quel motore grafico.
Ciao
Secondo voi quanto tempo ancora ci vuole per i giochi directX10?
Peccato che la stramaggioranza dei giochi Directx 9 non sono assolutamente ottimizzati per sfruttare le schede di ultima generazione DirectX 9,figuriamoci quelli DirectX10 con le rispettive schede...
Noi ci fissiamo sulle feature delle schede...e i giochi fatti con i piedi che fanno andare in crisi schede video di 500-600 euro?:doh:
webbuffa
04-06-2007, 22:01
:) Raga... mi permetto di dire una cosa... ma avete visto la grafica di colin dirt ? Non è al pari di un gioco direct 10 non sviluppatissimo ? Direi che per la direct 9 non è ancora finita, anzi, si iniziano ora a vedere le prestazioni vere, almeno dal punto di vista della qualità. Quindi da ora in poi ci aspetta solo beta testing della direct 10... mentre le 9 faranno passi da gigante, almeno da come la vedo io. Poi un punto in meno per la 10 è anche vista, che non essendo ottimizzatissimo per il gaming, va a scatti.
:D Ciao
Ti sbagli. R6V usa proprio l'UE3, era splinter ...
guarda io aspetterei UT3 per vedere com'è veramente l'UE 3 perchè diciamocelo, quello di Vegas non era granchè e soprattutto era stato implementato male.
:) Raga... mi permetto di dire una cosa... ma avete visto la grafica di colin dirt ?
io l'ho vista è l'effetto è stato questo-->:Puke:
troppo sbrilluccicoso, piu truccato di Platinette e hdr usato mallissimamente, imho eh :asd:
Wizard77
05-06-2007, 07:34
mah....!! :asd:
;)
anche per più di un anno, te lo assicuro, ce l'ho ancora bella e funzionante :cool:
Poliphilo
05-06-2007, 08:06
Bene. Ho ordinato tutti i pezzi per fare liquido. Mi manca solo la scheda video.
Quale mi consigliate? Asus, Sapphire....?
Quale è la migliore in rapporto prestazioni/prezzo? Quale ha in bundle il connettore 8 pin?
Altra domanda: fatemi capire, ma se il punteggio fatto con la GDDR4 da 1 Gb, di qualche pagina fa, è fatto con un quadricore, allora la cosa va molto ridimensionata o sbaglio? Voglio dire: il vantaggio di una soluzione simile sarebbe ben più basso rispetto a quello che si potrebbe credere?
:)
però è sempre stato così: quale vga è mai riuscita a "resistere" per un anno pieno tutto ma proprio tutto sparato al max con tutti i giochi? sopratutto con l'accelerazione che questi hanno avuto negli ultimi anni....
Per questo se leggi il mio post per intero ho detto: "Come è giusto che sia..."...;)
Poliphilo
05-06-2007, 10:43
Siete spariti tutti? :mbe:
+Lonewolf+
05-06-2007, 10:46
io ci sono:D
sai l'utility di overdrive della scheda dove la prendo?
+Lonewolf+
05-06-2007, 10:57
io ci sono:D
sai l'utility di overdrive della scheda dove la prendo?
ok risolto:D
+Lonewolf+
05-06-2007, 10:59
mi dite un programma x visualizzare le temp della scheda?
Poliphilo
05-06-2007, 11:16
io ci sono:D
sai l'utility di overdrive della scheda dove la prendo?
Non so. Non ho neanche la scheda. Io avevo chiesto un suggerimento. Tu che mi dici?
+Lonewolf+
05-06-2007, 11:20
Non so. Non ho neanche la scheda. Io avevo chiesto un suggerimento. Tu che mi dici?
allora...l'unica che ha il connettore in boundle è quella della MSI ma a me è uscito dall'alimentatore e io come scheda ho una sapphire...se prendi un enermax il connettore dxX esce da là:)
Poliphilo
05-06-2007, 11:25
MSI
Ok. Controllo. Grazie ;)
Ho un Tagan come alimentatore.
Ragazzi visto che domani la vado a prendere che driver mi consigliate?
+Lonewolf+
05-06-2007, 11:32
Ragazzi visto che domani la vado a prendere che driver mi consigliate?
catalyst 7.5
catalyst 7.5
Grazie :) che programmi mi consigliate per le temp. e per OC?
Poliphilo
05-06-2007, 12:01
allora...l'unica che ha il connettore in boundle è quella della MSI ma a me è uscito dall'alimentatore e io come scheda ho una sapphire...se prendi un enermax il connettore dxX esce da là:)
Ok. Ma è anche la migliore come overclock? E soprattutto dove la trovo?
Free Gordon
05-06-2007, 12:16
Ti sbagli. R6V usa proprio l'UE3, era splinter cell: double agent che usava il 2.5, ovvero un UE2 pesantemente ammodernato.
Se usa proprio l'UE3, allora l'ha implementato davvero male :D confrontandolo ad un GoW o un UT2007 in arrivo. :p
Cmq la mia obiezione era legata proprio al fatto che, se per assunto R6V gira bene su R600, non è detto che lo farà anche UT2007 o una futura versione di Gears, perchè saranno giochi tecnicamente completamente diversi (da R6V).
Free Gordon
05-06-2007, 12:22
Onestamente l'HDR non mi è ancora piaciuto una volta, da quando esiste, diventa tutto di plastica quando lo attivi :>
PGR3 su 360. ;)
Anche Lost Planet ha un HDR ben fatto.
Quello di cui parli tu cmq, è il bloom che è attivo di default nella demo di Colin ed è osceno... (su pc però, perlomeno puoi disattivarlo.. su console no.. :cry: )
Free Gordon
05-06-2007, 12:31
Bene. Ho ordinato tutti i pezzi per fare liquido. Mi manca solo la scheda video.
Quale mi consigliate? Asus, Sapphire....?
Quale è la migliore in rapporto prestazioni/prezzo? Quale ha in bundle il connettore 8 pin?
Io prenderei la ASUS, ha un bundle gustoso (se non hai già preso Stalker).
(Sempre che non ci siano problemi di driver per le schede asus, su questo non si hanno info a riguardo per ora).
Dell'adattatore 8pin non so effettivamente cosa te ne fai, dato che col 6+6 overcloccki lo stesso e, non avendo un ali nativo 8pin, la corrente che succhierai dal molex 6pin sarà la stessa sia che tu usi il 6 stesso, sia che usi l'adattatore.
Cioè, se l'ali ne soffrirà, ne soffrirà cmq sia in un caso che nell'altro... ;) e se non ne soffre, farai OC anche così.
Altra domanda: fatemi capire, ma se il punteggio fatto con la GDDR4 da 1 Gb, di qualche pagina fa, è fatto con un quadricore, allora la cosa va molto ridimensionata o sbaglio? Voglio dire: il vantaggio di una soluzione simile sarebbe ben più basso rispetto a quello che si potrebbe credere? :)
Boh, machettefrega del 3dmark? :D
Cmq i dati che devi guardare al di là della cpu, sono i punteggi sm2 e sm3 che stanno rispettivamente a 4200 e a 4800 pt sotto XP (sotto Vista non so), a default.
Piuttosto facci vedere come sale sta scheda sotto liquido!!! :sofico: :sofico: :sofico:
TecnoWorld8
05-06-2007, 12:41
si continua a parlare di R670, anche su una news qui:
http://www.hwupgrade.it/news/skvideo/55nm-per-le-gpu-ati-mobile_21444.html
speriamo solo che si sbrighino ed esca al massimo a settembre, dato che parlano di terzo trimestre. e soprattutto, speriamo che risolvano gli evidenti limiti di questa architettura, oltre a migliorare il processo produttivo.
ho proprio "voglia" di una GPU al top a 65nm.
Free Gordon
05-06-2007, 13:43
Le scelte architetturali sono decise anni prima...
A meno che non siano previsti nella roadmap, nel giro di 6 mesi/un anno si possono tirar fuori solo dei respin o dei chip a frequenze più alte ma l'architettura resta sempre quella. ;)
Ogni architettura ha delle carenze in certi ambiti, quelle di R600 non verranno colmate coi chip di settembre perchè vorrebbe dire stravolgere tutto il progetto. ;)
Imho vedremo un R600 a 65nm, con frequenze attorno al Ghz! :D
Vedremo poi i consumi come andranno, con un processo produttivo nuovo, magari made in AMD.. ^_^ e non quella porcheria 80HS di TSMC.
TecnoWorld8
05-06-2007, 13:58
Free Gordon: difficilmente una ditta prevede un die shrink senza apportare alcune modifiche architetturali. Dunque penso che, proprio sulla base di ciò che dici tu, già ad tempo ATi avesse previsto che l'evoluzione a 65nm avrebbe avuto qualche miglioria. Per esempio più texture units...dopotutto, credo che i benchmarks li facciano anche loro, no? ;)
Poliphilo
05-06-2007, 14:16
Io prenderei la ASUS, ha un bundle gustoso (se non hai già preso Stalker).
(Sempre che non ci siano problemi di driver per le schede asus, su questo non si hanno info a riguardo per ora).
Dell'adattatore 8pin non so effettivamente cosa te ne fai, dato che col 6+6 overcloccki lo stesso e, non avendo un ali nativo 8pin, la corrente che succhierai dal molex 6pin sarà la stessa sia che tu usi il 6 stesso, sia che usi l'adattatore.
Cioè, se l'ali ne soffrirà, ne soffrirà cmq sia in un caso che nell'altro... ;) e se non ne soffre, farai OC anche così.
Boh, machettefrega del 3dmark? :D
Cmq i dati che devi guardare al di là della cpu, sono i punteggi sm2 e sm3 che stanno rispettivamente a 4200 e a 4800 pt sotto XP (sotto Vista non so), a default.
Piuttosto facci vedere come sale sta scheda sotto liquido!!! :sofico: :sofico: :sofico:
Quindi il connettore ad 8 pin non serve a niente?:mbe:
Ma non si parlava (addietro) del fatto che senza quello non si poteva overclocckare? Com'è 'sta storia. Fatemi capire bene.
Per quanto riguarda le prestazioni della GDDR4: ho capito che il 3DMark non serve, ma quei punteggi (sm2 e sm3) sono meglio o peggio della versione GDDR3 da 512 Mb? Cioè: vale la pena aspettare o no?
Per il liquido: ma non c'è qualcuno che l'ha già montato?
Poi: volevo capire, da chi l'ha già montato, se conviene veramente non togliere il dissy con la ventola sulle ram, o se c'è qualcuno che invece ha adottato un'altra soluzione togliendo tutto e mettendo dissipatori passivi sulle ram.
TecnoWorld8
05-06-2007, 14:17
penso che senza il connettore, non si possa usare il CCC per overclockare, ma solo qualche programma "esterno" che supporti la HD2900XT.
+Lonewolf+
05-06-2007, 16:08
ho scoperto una cosa molto strana che lascio a voi verificare...se apro ati tool il contatore di atitool sotto mi segna di media 750fps...se apro fraps gli fps crollano a 650!!! penso che fraps vada in contrasto con la scheda...ora provo a fare un 3dmark2006
cmq provate a vedere il contatore di atitool e poi dopo aprite fraps...vedete che 100fps spariscono come acqua fresca, forse ecco xkè in molti test la scheda risulta lenta
+Lonewolf+
05-06-2007, 16:10
col sistema tutto a default faccio 9247 usando i cata 7.5 sotto winxp
col sistema tutto a default faccio 9247 usando i cata 7.5 sotto winxp
è un po pochetto...almeno sui 10.400 dovresti fare
ho scoperto una cosa molto strana che lascio a voi verificare...se apro ati tool il contatore di atitool sotto mi segna di media 750fps...se apro fraps gli fps crollano a 650!!! penso che fraps vada in contrasto con la scheda...ora provo a fare un 3dmark2006
cmq provate a vedere il contatore di atitool e poi dopo aprite fraps...vedete che 100fps spariscono come acqua fresca, forse ecco xkè in molti test la scheda risulta lenta
Appena la prendo domani,provo anche io e vediamo sto fatto di fraps, anche se mi sembra alquanto strano:confused:
+Lonewolf+
05-06-2007, 16:20
Appena la prendo domani,provo anche io e vediamo sto fatto di fraps, anche se mi sembra alquanto strano:confused:
mi fa 100 pts in meno al 3dmark 2006
+Lonewolf+
05-06-2007, 16:20
è un po pochetto...almeno sui 10.400 dovresti fare
per il mio sistema penso vada bene...dovrei occare un po' il processore per fare quel punteggio, pensi che dovrei fare di più con un 6420?????
mi fa 100 pts in meno al 3dmark 2006
Tutto questo usando sempre fraps? non vedo l'ora di mettere le mani stu questa scheda :sofico: anche se molti dicono che è buggata:O
Tutto questo usando sempre fraps? non vedo l'ora di mettere le mani stu questa scheda :sofico: anche se molti dicono che è buggata:O
chi meglio di uno che la ha può confermarti che NON è buggata? :asd: io
martor72
05-06-2007, 16:25
Scusate ragazzi ma che programma usate per le temperature della 2900 a me sul CCC non c'e' nulla e everest non la calcola proprio come scheda non mi da neanche le caratteristiche.
per il mio sistema penso vada bene...dovrei occare un po' il processore per fare quel punteggio, pensi che dovrei fare di più con un 6420?????
imho quel punteggio lo avresti fatto con un E4300 a default :stordita:
Scusate ragazzi ma che programma usate per le temperature della 2900 a me sul CCC non c'e' nulla e everest non la calcola proprio come scheda non mi da neanche le caratteristiche.
io uso ccc
+Lonewolf+
05-06-2007, 16:29
imho quel punteggio lo avresti fatto con un E4300 a default :stordita:
e che devo far adesso? come vedo se ho qlk problema? il mio punteggio cpu è 1910
e che devo far adesso? come vedo se ho qlk problema? il mio punteggio cpu è 1910
devi abbassare al minimo su ccc il mipmap detail level prima di fare i 3d mark
+Lonewolf+
05-06-2007, 16:35
devi abbassare al minimo su ccc il mipmap detail level prima di fare i 3d mark
e poi quando gioco lo devo rimettere al max oppure si setta in automatico?
scusa un'altra cosa, ma ati overdrive devo lasciarlo andare fino a quando vuole lui?a volte mi ferma e mi chiede se voglio continuare....
+Lonewolf+
05-06-2007, 16:51
devi abbassare al minimo su ccc il mipmap detail level prima di fare i 3d mark
mi fa cmq 9250...qlk altro consiglio da darmi?
3DMark79
05-06-2007, 17:25
Qualcuno mi sa dire se il connettore a 6pin però con solo 3 fili al suo interno va bene (e della mia X800GTO2) per la hd2900xt oltre ad un'altro da 6pin con 6 fili all'interno va bene?
-Feanor-
05-06-2007, 18:51
scusate la furbata.....ma non si puo mettere in prima pagina una volta per tutte le richieste come alimentatore....nel senso di connettori pin, voltaggio, amperaggio ecc...sia @default che @overclock..:D ..almeno evitiamo di riempire una pagina ogni due con richieste del tipo....il mio ali va bene...? che ali necessita la scheda....? :muro:
Giovedi mi arriva la mia HD 2900 XT Sapphire su un A64 3800+ oc 2,6 Ghz e 1,5 GB Ram.
Spero che posso giocare poi alla Grande, risol. 1280x1024 8xAA/16AF,-
anche se mio processore limita troppo sopratutto sui giochi ottimitzzati Dual Core...
e 1,5 GB Ram.
ma mettine 2...con 1,5 ti fumi il dual-channel :mbe:
Matrixal
05-06-2007, 19:05
Scusate volevo chiedervi una cosa, + che altro è una mia curiosità. Perchè un alimentatore con una sola linea 12v da 20A (in teoria dovrebbe erogare 240 watt) non drovebbe bastare per alimentare una hd 2900xt?
fanculium
05-06-2007, 19:10
è un po pochetto...almeno sui 10.400 dovresti fare
10400??????!!!!!:mbe:
ma se io tutto a default con un e6600 faccio 9860!!!?
+Lonewolf+
05-06-2007, 19:12
10400??????!!!!!:mbe:
ma se io tutto a default con un e6600 faccio 9860!!!?
infatti è una cavolata ho controllato:) io sono addirittura sopra la media:D
TecnoWorld8
05-06-2007, 19:20
infatti secondo me è già tanto superare i 9500 punti, con CPU a default. tutti i bench stratosferici che si vedono in giro, sono fatti con CPU a frequenze folli, cosa che tra l'altro serve quasi esclusivamente al 3D mark, dato che i giochi "veri" non ne beneficiano più di tanto.
-Feanor-
05-06-2007, 19:25
ragazzi.....la media è intorno ai 10000 ma anche meno...c'è questo 3d apposta http://www.hwupgrade.it/forum/showthread.php?t=1484107 ..:read: ....
10400??????!!!!!:mbe:
ma se io tutto a default con un e6600 faccio 9860!!!?
infatti è una cavolata ho controllato:) io sono addirittura sopra la media:D
infatti secondo me è già tanto superare i 9500 punti, con CPU a default. tutti i bench stratosferici che si vedono in giro, sono fatti con CPU a frequenze folli, cosa che tra l'altro serve quasi esclusivamente al 3D mark, dato che i giochi "veri" non ne beneficiano più di tanto.
ragazzi.....la media è intorno ai 10000 ma anche meno...c'è questo 3d apposta http://www.hwupgrade.it/forum/showthread.php?t=1484107 ..:read: ....
ma scherzate raga??? io faccio sui 10.350, ho fatto il 3d mark 06 giusto mezzora fa..., procio E6700 a default per il bench
-Feanor-
05-06-2007, 19:32
ma scherzate raga??? io faccio sui 10.350, ho fatto il 3d mark 06 giusto mezzora fa..., procio E6700 a default per il bench
e non ti sembra intorno ai 10.000..........?:mbe: .....anche di meno inteso che dipende dalla cpu...con un single core si fanno qualche migliaia di punti in meno......;)
3DMark79
05-06-2007, 20:11
Se ha 6 fili è un connettore da 6, anche se lo spinotto è da 50 pin :>
Dunque dovrei aggiungere io i restanti 3 fili mancanti visto che 3 sono vuoti.
Sono 2 negativi ed uno positivo (quelli che ho)
se non vado errato dovrei aggiungere (con qualche modifica :D ) 2 positivi ed 1 negativo nella stessa riga in cui si trovano.
devi abbassare al minimo su ccc il mipmap detail level prima di fare i 3d mark
non è un pò falsato un 3dmark col mipmap al minimo?? sicuramente il punteggio aumenta ma è indicativo? sarebbe cmq un 3dmark standard così facendo? io nn ho mai letto d questo
ma mettine 2...con 1,5 ti fumi il dual-channel :mbe:
Ho ben Dual Channel, ho messo 2x512 DDR 400 e ancore 2x256 DDR 400
Primi sono Kingston Value, secondi Infineon!
NvidiaMen
05-06-2007, 21:50
10400??????!!!!!:mbe:
ma se io tutto a default con un e6600 faccio 9860!!!?
Consiglio per chi si accinge a testare la HD 2900XT.
Prima di eseguire un test oltre ad aggiornare i drivers Catalyst occorrerebbe aggiornare anche le librerie DirectX 9.1 all'ultimo mese 2007 disponibile (http://www.microsoft.com/downloads/details.aspx?familyid=D2E2CAE1-6AEF-4A40-BD00-F0FB2A71E99F&displaylang=it).
NM.
+Lonewolf+
05-06-2007, 22:35
su vista con in nuovi cata mi segna che la mia hd 2900 ha i suoi 512 mb di ram dedicati e in più condivide con il SO 1.7 gb di memoria....sorpresina ati???
MonsterMash
05-06-2007, 22:52
La scheda è finalmente arrivata anche a me :)
Piccola domanda: da quando l'ho installata mi riconosce una periferica pci sconosciuta, che non so cosa sia. Ho provato a fare aggiorna driver scegliendo come destinazione la cartella dei driver della 2900xt, ma dice che non trova informazioni sull'hardware.
Qualcuno ha idea di che cosa possa trattarsi? Quello che mi sorprende è che sia una periferica pci, non pci-e...
Ciao
Athlon 64 3000+
05-06-2007, 23:04
La scheda è finalmente arrivata anche a me :)
Piccola domanda: da quando l'ho installata mi riconosce una periferica pci sconosciuta, che non so cosa sia. Ho provato a fare aggiorna driver scegliendo come destinazione la cartella dei driver della 2900xt, ma dice che non trova informazioni sull'hardware.
Qualcuno ha idea di che cosa possa trattarsi? Quello che mi sorprende è che sia una periferica pci, non pci-e...
Ciao
credo che sia l'high definition audio ma se non lo usi ti consiglio di disabilitarlo.
Io per esempio ho fatto cosi
+Lonewolf+
05-06-2007, 23:07
La scheda è finalmente arrivata anche a me :)
Piccola domanda: da quando l'ho installata mi riconosce una periferica pci sconosciuta, che non so cosa sia. Ho provato a fare aggiorna driver scegliendo come destinazione la cartella dei driver della 2900xt, ma dice che non trova informazioni sull'hardware.
Qualcuno ha idea di che cosa possa trattarsi? Quello che mi sorprende è che sia una periferica pci, non pci-e...
Ciao
la usi sotto vista?
fanculium
05-06-2007, 23:20
non è un pò falsato un 3dmark col mipmap al minimo?? sicuramente il punteggio aumenta ma è indicativo? sarebbe cmq un 3dmark standard così facendo? io nn ho mai letto d questo
Ehm mi è successo una cosa strana....Mi sono accorto solo ora che avevo il mipmap level al massimo, e al 3dmark06 facevo (tutto a default) 9859.Prima ho provato a fare lo stesso test ma con mipmap al minimo, ed ho fatto........9860!!!:muro: :muro: :muro:
Ho avuto un guadagno di 1 solo punto??????????:mbe:
a voi la parola.
CIAO!!:D
MonsterMash
05-06-2007, 23:21
Ehm mi è successo una cosa strana....Mi sono accorto solo ora che avevo il mipmap level al massimo, e al 3dmark06 facevo (tutto a default) 9859.Prima ho provato a fare lo stesso test ma con mipmap al minimo, ed ho fatto........9860!!!:muro: :muro: :muro:
Ho avuto un guadagno di 1 solo punto??????????:mbe:
a voi la parola.
CIAO!!:D
Ho provato anche io a modificare il livello del mipmap, ma non si hanno vantaggi, almeno nel 3dmark. Per cui è inutile fare distinzione tra le due impostazioni :)
Ho provato anche io a modificare il livello del mipmap, ma non si hanno vantaggi, almeno nel 3dmark. Per cui è inutile fare distinzione tra le due impostazioni :)
Se non ricordo male...mi sembra chiaro. I test del 3DMark vengono fatti forzando l'AF a 16x ;)
MonsterMash
05-06-2007, 23:42
Se non ricordo male...mi sembra chiaro. I test del 3DMark vengono fatti forzando l'AF a 16x ;)
Invece mi pare che i test del 3dmark vengono fatti coi filtri disattivati, sia AA che AF.
Invece mi pare che i test del 3dmark vengono fatti coi filtri disattivati, sia AA che AF.
L'AA sicuro ma nel 06 forse l'AF c'è...poi è da una vita che non faccio un 3DMark per cui posso ricordare male :p
+Lonewolf+
06-06-2007, 00:17
L'AA sicuro ma nel 06 forse l'AF c'è...poi è da una vita che non faccio un 3DMark per cui posso ricordare male :p
è senza filtri
Free Gordon
06-06-2007, 01:56
Free Gordon: difficilmente una ditta prevede un die shrink senza apportare alcune modifiche architetturali. Dunque penso che, proprio sulla base di ciò che dici tu, già ad tempo ATi avesse previsto che l'evoluzione a 65nm avrebbe avuto qualche miglioria. Per esempio più texture units...dopotutto, credo che i benchmarks li facciano anche loro, no? ;)
Da come la mettevi tu, pareva che fosse quasi un correre ai ripari da parte di AMD..
cosa che invece non farà, perchè il progetto è quello... e se ATI avesse pensato che ci sarebbero potuti essere dei limiti rispetto alla concorrente nel settore TMU, non sarebbe uscito nemmeno R600 così come lo conosciamo oggi.
In realtà ATI se n'è sempre sbattuta di quello che fa la concorrente e ha sempre scelto strade proprie, ed è quello che continuerà a fare (a torto o a ragione) anche in questa generazione.
Penso che con R650 e i 65nm, farà salire il chip in frequenza, cercherà di abbassare i consumi e proverà a fare una GPU dual (forse ma forse).
Potrebbe anche introdurre un blocco TMU e uno RBE in più, ma non ci giurerei.
Free Gordon
06-06-2007, 02:01
Quindi il connettore ad 8 pin non serve a niente?:mbe:
Serve l'AMD GPU clock tool per cloccare la scheda se si ha solo il 6+6. ;)
L'8pin serve solo per far riconoscere l'overdrive dai Catalyst.
Free Gordon
06-06-2007, 02:06
Giovedi mi arriva la mia HD 2900 XT Sapphire su un A64 3800+ oc 2,6 Ghz e 1,5 GB Ram.
Spero che posso giocare poi alla Grande, risol. 1280x1024 8xAA/16AF,-
anche se mio processore limita troppo sopratutto sui giochi ottimitzzati Dual Core...
E i giochi ottimizzati dualcore, dove sono? :D
Me li indichi?
Cmq il tuo procio ti limita sui giochi rispetto ad un Core2Duo, non in generale.
Sopratutto se spari i filtri e la risoluzione, con gli ultimi giochi il tuo procio non è mai un grosso problema. ;)
E poi calcola che un A64 a 2600mhz fa più o meno quello che fa un core2duo a 2.0ghz eh! ;)
Da come la mettevi tu, pareva che fosse quasi un correre ai ripari da parte di AMD..
cosa che invece non farà, perchè il progetto è quello... e se ATI avesse pensato che ci sarebbero potuti essere dei limiti rispetto alla concorrente nel settore TMU, non sarebbe uscito nemmeno R600 così come lo conosciamo oggi.
In realtà ATI se n'è sempre sbattuta di quello che fa la concorrente e ha sempre scelto strade proprie, ed è quello che continuerà a fare (a torto o a ragione) anche in questa generazione.
Penso che con R650 e i 65nm, farà salire il chip in frequenza, cercherà di abbassare i consumi e proverà a fare una GPU dual (forse ma forse).
Potrebbe anche introdurre un blocco TMU e uno RBE in più, ma non ci giurerei.
Quoto tutto, è una scheda più proiettata al futuro e nata secondo la filosofia Ati che porta avanti da sempre, fin dalla primissima Radeon DDR che non primeggiava nel singolo bench ma poi col tempo si è rivelata più duratura, tanto che a parte quake 3 dove faceva 65-70 fps a 1024 ma a 32 bit come a 16 (contro i 110 a 16 e gli 85 a 32 della concorrenza) non sfigurava affatto in nulla. La cambiai solo per una 8500LE (altro ottimo prodotto, scheda che anche attualmente fa girare Battlefield 2, che per intenderci non gira su Geforce 4200).
Non che Ati non abbia avuto momenti di crisi, imho, la serie x800 l'ho saltata a piè pari, pur essendo forse più veloce delle 6800 sono stati i modelli meno visionari della casa canadese, e quelli meno duraturi nel contempo.
Io comunque di questa x2900 xt dopo 20 giorni ne sono più che soddisfatto, i driver miglioreranno ma già così i giochi filano che è un piacere.
Athlon 64 3000+
06-06-2007, 09:21
Quoto tutto, è una scheda più proiettata al futuro e nata secondo la filosofia Ati che porta avanti da sempre, fin dalla primissima Radeon DDR che non primeggiava nel singolo bench ma poi col tempo si è rivelata più duratura, tanto che a parte quake 3 dove faceva 65-70 fps a 1024 ma a 32 bit come a 16 (contro i 110 a 16 e gli 85 a 32 della concorrenza) non sfigurava affatto in nulla. La cambiai solo per una 8500LE (altro ottimo prodotto, scheda che anche attualmente fa girare Battlefield 2, che per intenderci non gira su Geforce 4200).
Non che Ati non abbia avuto momenti di crisi, imho, la serie x800 l'ho saltata a piè pari, pur essendo forse più veloce delle 6800 sono stati i modelli meno visionari della casa canadese, e quelli meno duraturi nel contempo.
Io comunque di questa x2900 xt dopo 20 giorni ne sono più che soddisfatto, i driver miglioreranno ma già così i giochi filano che è un piacere.
sono d'accordo perchè penso che R600 dei bachi hardware non ne ha ma il fatto di avere 16 tmu e 16 rop's e una precisa scelta architetturale(cosi come aveva fatto con R580)che fa si che la scheda si trovi a suo agio con giochi sia vertex che pixel shader intensive.
sono d'accordo perchè penso che R600 dei bachi hardware non ne ha ma il fatto di avere 16 tmu e 16 rop's e una precisa scelta architetturale(cosi come aveva fatto con R580)che fa si che la scheda si trovi a suo agio con giochi sia vertex che pixel shader intensive.
Secondo me, non è proprio così. Non bisogna dimenticarsi che gli sp di R600 devono occuparsi anche dei calcoli AA, e dai bench si vede benissimo che è proprio con i filtri attivati che la scheda ha qualche problema di prestazioni.
Quindi, paradossalmente, nei giochi shader intensive, dove la scheda sfrutterà al meglio tutte le sue unità, ci saranno meno unità disponibili per i filtri. Questo potrebbe tradursi in prestazioni migliori della concorrenza (anche GTX e ULTRA) senza filtri ma prestazioni peggiori con i filtri attivati.
Che poi "AA through sp" sia la via giusta da seguire in un'ottica futura, siamo tutti d'accordo. Soprattutto considerando che anche Nvidia dovrà passare a questo modo di gestire AA, e si troverà a dover rincorrere ATi.
Secondo me, non è proprio così. Non bisogna dimenticarsi che gli sp di R600 devono occuparsi anche dei calcoli AA, e dai bench si vede benissimo che è proprio con i filtri attivati che la scheda ha qualche problema di prestazioni.
Quindi, paradossalmente, nei giochi shader intensive, dove la scheda sfrutterà al meglio tutte le sue unità, ci saranno meno unità disponibili per i filtri. Questo potrebbe tradursi in prestazioni migliori della concorrenza (anche GTX e ULTRA) senza filtri ma prestazioni peggiori con i filtri attivati.
Che poi "AA through sp" sia la via giusta da seguire in un'ottica futura, siamo tutti d'accordo. Soprattutto considerando che anche Nvidia dovrà passare a questo modo di gestire AA, e si troverà a dover rincorrere ATi.
Per certi versi quello che dici è vero, però pare altrettanto vero quello che alcuni ragazzi in giro sul web hanno notato: stranamente l'impatto dell'AA4x è molto più alto di quello 8x. In certi casi, anche a risoluzioni medio-alte (1680x1050) la perdita di fps è abbastanza marginale. Questo, secondo la tua tesi, non potrebbe avvenire, visto che all'aumentare del livello di AA dovrebbero proporzionalmente peggiorare le prestazioni (anzi, più che proporzionale: con giochi recenti io avevo notato che l'impatto dell'AA6x sulle vecchie ATi X1k era molto più forte di quello dell'AA4x rispetto al 2x).
E potrebbe anche essere per lo stesso motivo che in certi casi la scheda (con e senza filtri attivati) in certi giochi sia al livello di GTX e Ultra a risoluzioni uber (2560x1600).
Sembra proprio che ci sia invece un problema di drivers con alcuni tipologie di filtri in alcuni giochi... :boh:
Ho provato anche io a modificare il livello del mipmap, ma non si hanno vantaggi, almeno nel 3dmark. Per cui è inutile fare distinzione tra le due impostazioni :)
quando avevo la raddy 9550 :asd: il mipmap era fondamentale, al 3d mark 03 con mimap al minimo e scheda overcloccata faceva sui 4200 punti, mentre hardware sempre impostato allo stesso modo, ma con mipmap al massimo scendevo a 2500 punti, per questo dicevo di disattivarlo, imho sembra che su queste schede non influisca piu di tanto.
guardate che dissi da artic cooling
http://resources.vr-zone.com/Shamino/computexd1/cooling/articsilence/IMG_0821.jpg
Per certi versi quello che dici è vero, però pare altrettanto vero quello che alcuni ragazzi in giro sul web hanno notato: stranamente l'impatto dell'AA4x è molto più alto di quello 8x. In certi casi, anche a risoluzioni medio-alte (1680x1050) la perdita di fps è abbastanza marginale. Questo, secondo la tua tesi, non potrebbe avvenire, visto che all'aumentare del livello di AA dovrebbero proporzionalmente peggiorare le prestazioni (anzi, più che proporzionale: con giochi recenti io avevo notato che l'impatto dell'AA6x sulle vecchie ATi X1k era molto più forte di quello dell'AA4x rispetto al 2x).
E potrebbe anche essere per lo stesso motivo che in certi casi la scheda (con e senza filtri attivati) in certi giochi sia al livello di GTX e Ultra a risoluzioni uber (2560x1600).
Sembra proprio che ci sia invece un problema di drivers con alcuni tipologie di filtri in alcuni giochi... :boh:
Effettivamente è strana sta cosa. Diciamo che è plausibile che questa nuova implementazione dell'AA through sp possa avere dei difetti di gioventù.
Io non ci capisco un H di programmazione, vado un po' ad intuito, non è il mio campo :D , però è probabile che l'impatto di questa nuova tecnologia sia diverso a seconda della programmazione del gioco stesso.
Rimango tuttavia convinto che affrontare questi problemi ora, sia per ATI un grosso vantaggio nei confronti della concorrenza che si troverà a dover studiare un nuovo sistema da capo (e questa volta saranno loro in ritardo rispetto ad ATI).
Vorrei vedere dei test più approfonditi sul calo di prestazioni con diverse "gradazioni" di AA nei giochi più shader intensive che ci sono ora in commercio. Qualche idea e qualche link :) ?
guardate che dissi da artic cooling
http://resources.vr-zone.com/Shamino/computexd1/cooling/articsilence/IMG_0821.jpg
lol, ricordo i vari commenti su un prototipo di un dissi molto simile a questo, quando ancora stavamo ancora "aspettando R600" (primo thread mi pare).
Cosa può consumare un affare del genere?
guardate che dissi da artic cooling
http://resources.vr-zone.com/Shamino/computexd1/cooling/articsilence/IMG_0821.jpg
il problema cmq rimane: dove và a finire l'aria calda prodotta dal ventolame???? :D
lol, ricordo i vari commenti su un prototipo di un dissi molto simile a questo, quando ancora stavamo ancora "aspettando R600" (primo thread mi pare).
Cosa può consumare un affare del genere?
già ricordo, veniva preso come metro di paragone per il consumo di r600!
il problema cmq rimane: dove và a finire l'aria calda prodotta dal ventolame???? :D
rimane dentro, ovviamente:( ma almeno è meglio aria calda in movimento che aria calda stantia. del resto a part artic cooling non ricordo di case che abbiano commerciailzzato dissi che estraessero aria calda dal case
altra immagine:
http://resources.vr-zone.com/Shamino/computexd1/cooling/articsilence/IMG_0819.jpg
si legge:
3 ventole da 80 mm
5 (:eek: ) heatpipes
raffreddamento integrato per il voltage regulator
se uno ha posseduto una x1950xt sa quanto quest'ultima cosa sia importante
Athlon 64 3000+
06-06-2007, 12:10
Effettivamente è strana sta cosa. Diciamo che è plausibile che questa nuova implementazione dell'AA through sp possa avere dei difetti di gioventù.
Io non ci capisco un H di programmazione, vado un po' ad intuito, non è il mio campo :D , però è probabile che l'impatto di questa nuova tecnologia sia diverso a seconda della programmazione del gioco stesso.
Rimango tuttavia convinto che affrontare questi problemi ora, sia per ATI un grosso vantaggio nei confronti della concorrenza che si troverà a dover studiare un nuovo sistema da capo (e questa volta saranno loro in ritardo rispetto ad ATI).
Vorrei vedere dei test più approfonditi sul calo di prestazioni con diverse "gradazioni" di AA nei giochi più shader intensive che ci sono ora in commercio. Qualche idea e qualche link :) ?
per quanto riguarda l'aa vedendo i vari schemi di R600 la circuiteria per l'applicazione del MSAA esiste ma da quello che so i driver ne impediscono l'utilizzo,mentre nei giochi che fanno uso della tecnica d'illiminazione come Stalker e GRAW invece viene usato lo Shader core.
Anche quello di usare lo shader core per applicare l'aa con determinati giochi è una precisa scelta architetturale.
Ora come ora la cosa più grave sono i driver che sono di una penosità allucinante visto che in certi giochi l'applicazione del'AF attivato da pannello dei driver provoca dei crolli prestazioni
...Gherf... mi lasci la mail?
già ricordo, veniva preso come metro di paragone per il consumo di r600!
rimane dentro, ovviamente:( ma almeno è meglio aria calda in movimento che aria calda stantia. del resto a part artic cooling non ricordo di case che abbiano commerciailzzato dissi che estraessero aria calda dal case
è da verificare quello...nn vorrei che generasse un surriscaldamenteo generale all'interno del case .....vedendo i commenti di utenti "spaventati" dal getto di aria calda che esce dal retro della svga in "load"... :(
Effettivamente è strana sta cosa. Diciamo che è plausibile che questa nuova implementazione dell'AA through sp possa avere dei difetti di gioventù.
Io non ci capisco un H di programmazione, vado un po' ad intuito, non è il mio campo :D , però è probabile che l'impatto di questa nuova tecnologia sia diverso a seconda della programmazione del gioco stesso.
Rimango tuttavia convinto che affrontare questi problemi ora, sia per ATI un grosso vantaggio nei confronti della concorrenza che si troverà a dover studiare un nuovo sistema da capo (e questa volta saranno loro in ritardo rispetto ad ATI).
Vorrei vedere dei test più approfonditi sul calo di prestazioni con diverse "gradazioni" di AA nei giochi più shader intensive che ci sono ora in commercio. Qualche idea e qualche link :) ?
http://www.rage3d.com/board/showpost.php?p=1334958010&postcount=1
Qualcosa di più approfondito ci dovrebbe essere anche in qualche recensione ufficiale.
-Feanor-
06-06-2007, 14:04
http://www.rage3d.com/board/showpost.php?p=1334958010&postcount=1
Qualcosa di più approfondito ci dovrebbe essere anche in qualche recensione ufficiale.
:mbe: ....sinceramente mi sembrano un po bacati i risultati.....con un qx6700 poi mi aspetto di meglio a 1068x1050 anche con aa e af.....oblivion con 30 fps di media....:rolleyes: ...guardate qui http://www.hwupgrade.it/forum/showthread.php?t=1484107&page=1 ...ma anche solo la rec del 14....:muro: ....dai....per piacere...:muro:
:mbe: ....sinceramente mi sembrano un po bacati i risultati.....con un qx6700 poi mi aspetto di meglio a 1068x1050 anche con aa e af.....oblivion con 30 fps di media....:rolleyes: ...guardate qui http://www.hwupgrade.it/forum/showthread.php?t=1484107&page=1 ...ma anche solo la rec del 14....:muro: ....dai....per piacere...:muro:
sono i valori minimi che nn tollero per una scheda del genere,pur a 1680x1050...ed è pure occata.ma è forse possibile che sia il software che fanno oggi ad avere molti problemi?? com'è,invece d migliorare peggioriamo? :D
-Feanor-
06-06-2007, 14:52
sono i valori minimi che nn tollero per una scheda del genere,pur a 1680x1050...ed è pure occata.ma è forse possibile che sia il software che fanno oggi ad avere molti problemi?? com'è,invece d migliorare peggioriamo? :D
ma no.....non ti preoccupare....è quella pseudorecensione che è veramente penosa....e fatto coi :ciapet: ....:rolleyes: ........fidati di fonti piu sicure e garantite......non di quello che dice il primo che passa......:D
giorno a tutti
lol?
Anche quello di usare lo shader core per applicare l'aa con determinati giochi è una precisa scelta architetturale.
Ora come ora la cosa più grave sono i driver che sono di una penosità allucinante visto che in certi giochi l'applicazione del'AF attivato da pannello dei driver provoca dei crolli prestazioni
Certo, prima o poi tutti dovranno usare lo shader core per applicare AA. E' una precisa scelta di ATI, di anticipare un po' i tempi, ma secondo me se lo shader core fosse stato più veloce o con più unità, sarebbe servito meglio allo scopo :)
Ciao a tutti,
entro il fine settimana mi arrivano tutti i componenti per assemblare il mio nuovo pc e tra questi figura sta benedetta HD 2900 XT (dell'ASUS).
Voglio aggiungermi alla schiera degli overclockers qui su hwupgrade per dare un po' di dignità a sto mistico oggetto da troppi ingiustamente deprecato.
Mi sono fatto un mazzo tanto a leggere tutte le review della scheda e due fonti da me ritenute autorevoli mi hanno convinto all'acquisto (anche se indotto in tentazione dalla 8800GTS).
La configurazione è quella in firma. Appena possibile farò anchio un po' di bench.
:mbe: ....sinceramente mi sembrano un po bacati i risultati.....con un qx6700 poi mi aspetto di meglio a 1068x1050 anche con aa e af.....oblivion con 30 fps di media....:rolleyes: ...guardate qui http://www.hwupgrade.it/forum/showthread.php?t=1484107&page=1 ...ma anche solo la rec del 14....:muro: ....dai....per piacere...:muro:
sono i valori minimi che nn tollero per una scheda del genere,pur a 1680x1050...ed è pure occata.ma è forse possibile che sia il software che fanno oggi ad avere molti problemi?? com'è,invece d migliorare peggioriamo? :D
ma no.....non ti preoccupare....è quella pseudorecensione che è veramente penosa....e fatto coi :ciapet: ....:rolleyes: ........fidati di fonti piu sicure e garantite......non di quello che dice il primo che passa......:D
Secondo me invece è possibilissimo che i risultati siano quelli: non esiste un vero benchmark di Oblivion, e tutti sappiamo che il framerate in questo gioco varia tantissimo tra le ambientazioni indoor e quelle outdoor ricche di vegetazione (che sono le più pesanti). Se leggete bene, il test è condotto in una zona ricca di fogliame (ecco perchè "foliage") e con tutto al max, HDR e AA4x. Comunque i valori sono assimilabili a quelli di una 8800GTS in condizioni simili.
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=20 (guardate la tabella con la progressione delle prestazioni col variare delle risoluzioni).
Quello che invece è molto interessante è l'impatto dell'AA8x, che mi pare davvero basso (o forse è quello dell'AA4x troppo forte).
-Feanor-
06-06-2007, 16:30
Secondo me invece è possibilissimo che i risultati siano quelli: non esiste un vero benchmark di Oblivion, e tutti sappiamo che il framerate in questo gioco varia tantissimo tra le ambientazioni indoor e quelle outdoor ricche di vegetazione (che sono le più pesanti). Se leggete bene, il test è condotto in una zona ricca di fogliame (ecco perchè "foliage") e con tutto al max, HDR e AA4x. Comunque i valori sono assimilabili a quelli di una 8800GTS in condizioni simili.
http://www.anandtech.com/video/showdoc.aspx?i=2988&p=20 (guardate la tabella con la progressione delle prestazioni col variare delle risoluzioni).
Quello che invece è molto interessante è l'impatto dell'AA8x, che mi pare davvero basso (o forse è quello dell'AA4x troppo forte).
se mi garantissero che quella è l'ambientazione effettivamente piu pesante del mondo di oblivion...allora quei risultati potrei anche ritenerli accettabili....senza poi contare che potrebbe esserci una mod grafica a oblivion, sul computer di sto tizio..anche se per fare dei bench spero ci sia arrivato di toglierla....ad ogni modo mi fido decisamente di piu di hwup e delle prove effettive delle persone del forum sul 3d che ho postato.....:D
guardate che dissi da artic cooling
http://resources.vr-zone.com/Shamino/computexd1/cooling/articsilence/IMG_0821.jpg
orripilante forte :asd:
qualcuno mi sà spiegare stà storia dell'AA, io non ci ho capito un tubo
Wide, Narrow, Edge...
:confused:
Andrea87
06-06-2007, 17:41
Ragazzi se vi interessa questo è ciò che la sapphire ha spedito a un mio amico che ha dei seri problemi con alcuni software con la sua nuova 2900xt montata su chipset rd580
"Buon giorno....,
il tuo alimentatore va più che bene, il problema è l'immaturità dei
driver,
devi portare un po' di pazienza, l'ottimizzazione arriverà
entro le prossime
2 release, la prima sistemerà il problema di avivo che ora non viene
gestito
per contenuti hddvd e blue ray, oltre a migliorare le prestazioni, il
secondo sarà un ottimizzazione delle performance. Speriamo anche nel
frattempo in un primo aggiornamento di vista. Unico consiglio per la tua
configurazione è di portare le ram da 1 gb a 2gb.
Buona giornata
Sapphire Support"
Ciò significa che anche loro sono consapevoli che i driver fanno veramente schifo ma anche che la situazione non è così drammatica come pensano molti. Anzi magari il chip è così avazato per certe cose che anche loro ci stanno mettendo un po' a capire bene come va. Speriamo ora che davvero con le prossime due release oltre a migliorare i problemi si possano finalmente vedere le vere prestazioni di questa vga.
+Lonewolf+
06-06-2007, 17:50
io oggi sto testando la scheda sotto vista e xp e ho osservato una cosa...innanzitutto sotto vista la scheda condivite 1.7gb di ram con il resto del sistema(:confused: )
poi in fear le prestazioni in alcuni tratti sono deludenti ma in altri addirittura superano xp...spiegate...
Non so s'e' stato gia postato qualcosa, comunque :
Extreme PC Exclusive SI Radeon HD2900XT 825Mhz Core | 1GB 2100Mhz DDR4PCI-E DX10 /2 DVI/ HDTV/ AVIVO/ HDMI/ AC3 5.1 Sound
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414
P.;)
+Lonewolf+
06-06-2007, 17:52
Non so s'e'stato gia postato quoalcosa, comunque :
Extreme PC Exclusive SI Radeon HD2900XT 825Mhz Core | 1GB 2100Mhz DDR4PCI-E DX10 /2 DVI/ HDTV/ AVIVO/ HDMI/ AC3 5.1 Sound
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414
P.;)
!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!!
Non so s'e'stato gia postato quoalcosa, comunque :
Extreme PC Exclusive SI Radeon HD2900XT 825Mhz Core | 1GB 2100Mhz DDR4PCI-E DX10 /2 DVI/ HDTV/ AVIVO/ HDMI/ AC3 5.1 Sound
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414
P.;)
che mostroooooo la volgioooo :eek: :eek: :eek: :eek:
Quei result li aveva già postati hal...
Comunque sia è un mostro davvero, però bisogna anche vedere i bench dei giochi con questi drivers maturi che tanto attendiamo...
PS. Speriamo escano in tempo per la rece del modello da 1GB su hwupgrade...
TecnoWorld8
06-06-2007, 18:18
quelli sono $ canadesi, che si traducono in 450 Euro. Non li spenderei mai per questa scheda, considerato che quasi tutte - a quanto ne so - arrivano a circa 800Mhz di core. Certo, questa ha 1GB di memoria, ma alla fine non so quanto serva. E soprattutto...chissà quanto consuma a quelle frequenze.
Rimango dell'idea di attendere una R650 a 65nm, che se anche costerà 500€, andrà ancor di più e consumerà e scalderà meno.
quelli sono $ canadesi, che si traducono in 450 Euro. Non li spenderei mai per questa scheda, considerato che quasi tutte - a quanto ne so - arrivano a circa 800Mhz di core. Certo, questa ha 1GB di memoria, ma alla fine non so quanto serva. E soprattutto...chissà quanto consuma a quelle frequenze.
Rimango dell'idea di attendere una R650 a 65nm, che se anche costerà 500€, andrà ancor di più e consumerà e scalderà meno.
Pure io aspetto la revision a 65nm...
E un'altra cosa che quasi dimenticavo...
Uno che si può permettere una VGA da 350€ sono sicuro che NON la mette su un Q-Tek...
quelli sono $ canadesi, che si traducono in 450 Euro. Non li spenderei mai per questa scheda, considerato che quasi tutte - a quanto ne so - arrivano a circa 800Mhz di core. Certo, questa ha 1GB di memoria, ma alla fine non so quanto serva. E soprattutto...chissà quanto consuma a quelle frequenze.
Rimango dell'idea di attendere una R650 a 65nm, che se anche costerà 500€, andrà ancor di più e consumerà e scalderà meno.
Quella scheda anche con drivers acerbi, quella postata là :D, state sicuri che va meno della 8800 GTX in media. La scheda va un 15% meglio della versione default con 512MB quindi abbastanza meno della 8800 GTX.
qualcuno mi sà spiegare stà storia dell'AA, io non ci ho capito un tubo
Wide, Narrow, Edge...
:confused:
Sono i filtri che ATi usa per raggiungere livelli equivalenti di AA superiori all'8x.
Come saprai, fino alla scorsa generazione di schede il massimo livello di vero antialiasing supportato (MSAA, ossia il multisampling antialiasing) era 6x per le ATi e 4x per le nVidia: l'AA8x di queste ultime era in realtà un "mix" tra un OGSS (ordered grid supersampling, ossia il primo vero tipo di AA, si prende l'immagine e la si renderizza più grande del normale, per poi ridurla ) 4x ed un RGSS (rotated grid supersampling, come l'altro ma con i pixel lievemente inclinati, per creare un ulteriore effetto di smoothing). Tra l'altro l'AA delle ATi è ancora diverso, visto che col sistema "SmoothVision" producono un MSAA random (visto che i pixel che fanno l'antialiasing non vengono posizionati secondo un pattern prestabilito), più efficace del classico multisampling: oggi lo adotta pure nVidia su G80 e lo chiama sparse sampled multi sampling.
Con l'attuale generazione, il MSAA massimo supportato è arrivato a 8x, ma si è voluta creare tutta una serie di livelli di qualità intermedi (e superiori) ai normali livelli di MSAA. nVidia ha scelto la strada del Coverage Sampling, una specie di MultiSampling semplificato aggiuntivo (con inferiore spreco di risorse, visto che in realtà il coverage sampling viene fatto con pixel non colorati) con random grid: questo garantisce livelli migliori di AA a parità di MSAA (quindi AA migliore con poche risorse in più).
ATi ha invece scelto una strada che pare l'evoluzione di una vecchia forma di AA che aveva introdotto nVidia tanti anni fa: il Quincunx. All'epoca però il sistema era molto rudimentale, in pratica la gpu faceva il blurring dei 3 pixel vicini ai due che erano il prodotto di un RGMS2x (rotated grid multisampling, AA "reale").
Oggi invece ATi usa 2 tipi di tent filters che dovrebbero fare le veci del coverage sampling: il narrow tent filter ed il wide tent filter. Sono praticamente la stessa cosa, solo che mentre il primo fa il "blurring" prendendo un sample da ogni pixel vicino, il secondo ne prende 2 da ogni pixel vicino. Dopodichè la gpu applica un sottile blurring a questi sample presi dai pixel vicini: per evitare un effetto troppo pesante, il calcolo che viene fatto è abbastanza complesso. Ecco perchè quei filtri sono una sorta di blurring "intelligente".
L'edge detection filter invece non si sa bene come funzionerà...
Secondo me ATi ha scelto questa strada perchè il coverage sampling comunque comporta un carico aggiuntivo sulle ROPs nettamente superiore a quello che è invece causato dai tent filters.
Comunque se vuoi saperne di più, ti consiglio le recensioni di TechReport.
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=6
http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=7
Pure io aspetto la revision a 65nm...
E un'altra cosa che quasi dimenticavo...
Uno che si può permettere una VGA da 350€ sono sicuro che NON la mette su un Q-Tek...
Giusto, basta anche un Antec da 80 euro, 24A a voltaggi stabili basatno ed avanzano per la scheda. La versione a 65nm per poter essere un 50% più veloce di R600 dovrà consumare un po di più di R600 stesso!
Sono i filtri che ATi usa per raggiungere livelli equivalenti di AA superiori all'8x.
Come saprai, fino alla scorsa generazione di schede il massimo livello di vero antialiasing supportato (MSAA, ossia il multisampling antialiasing) era 6x per le ATi e 4x per le nVidia: l'AA8x di queste ultime era in realtà un "mix" tra un OGSS (ordered grid supersampling, ossia il primo vero tipo di AA, si prende l'immagine e la si renderizza più grande del normale, per poi ridurla ) 4x ed un RGSS (rotated grid supersampling, come l'altro ma con i pixel lievemente inclinati, per creare un ulteriore effetto di smoothing). Tra l'altro l'AA delle ATi è ancora diverso, visto che col sistema "SmoothVision" producono un MSAA random (visto che i pixel che fanno l'antialiasing non vengono posizionati secondo un pattern prestabilito), più efficace del classico multisampling: oggi lo adotta pure nVidia su G80 e lo chiama sparse sampled multi sampling.
Con l'attuale generazione, il MSAA massimo supportato è arrivato a 8x, ma si è voluta creare tutta una serie di livelli di qualità intermedi (e superiori) ai normali livelli di MSAA. nVidia ha scelto la strada del Coverage Sampling, una specie di MultiSampling semplificato aggiuntivo (con inferiore spreco di risorse, visto che in realtà il coverage sampling viene fatto con pixel non colorati) con random grid: questo garantisce livelli migliori di AA a parità di MSAA (quindi AA migliore con poche risorse in più).
ATi ha invece scelto una strada che pare l'evoluzione di una vecchia forma di AA che aveva introdotto nVidia tanti anni fa: il Quincunx. All'epoca però il sistema era molto rudimentale, in pratica la gpu faceva il blurring dei 3 pixel vicini ai due che erano il prodotto di un RGMS2x (rotated grid multisampling, AA "reale").
Oggi invece ATi usa 2 tipi di tent filters che dovrebbero fare le veci del coverage sampling: il narrow tent filter ed il wide tent filter. Sono praticamente la stessa cosa, solo che mentre il primo fa il "blurring" prendendo un sample da ogni pixel vicino, il secondo ne prende 2 da ogni pixel vicino. Dopodichè la gpu applica un sottile blurring a questi sample presi dai pixel vicini: per evitare un effetto troppo pesante, il calcolo che viene fatto è abbastanza complesso. Ecco perchè quei filtri sono una sorta di blurring "intelligente".
L'edge detection filter invece non si sa bene come funzionerà...
Secondo me ATi ha scelto questa strada perchè il coverage sampling comunque comporta un carico aggiuntivo sulle ROPs nettamente superiore a quello che è invece causato dai tent filters.
Comunque se vuoi saperne di più, ti consiglio le recensioni di TechReport.
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=6
http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=7
grazie mille :)
Alexkidd85
06-06-2007, 20:22
Qua ci stiamo interrogando sull'antialising e sulle differenze tra 8 e 4x e sulla scalabilità delle prestazioni.....
C'è anche da dire che il tempo passa...il FullHD è alla porte e i monitor incominciano a tentennare come prezzo.
Davvero crediate che a 1900 ci sia bisogno di AA8x o addirittura 16x!? :D
Davvero crediate che a 1900 ci sia bisogno di AA8x o addirittura 16x!? :D
direi di no, ma un 4x ci stà sempre ;)
Athlon 64 3000+
06-06-2007, 20:32
Sono i filtri che ATi usa per raggiungere livelli equivalenti di AA superiori all'8x.
Come saprai, fino alla scorsa generazione di schede il massimo livello di vero antialiasing supportato (MSAA, ossia il multisampling antialiasing) era 6x per le ATi e 4x per le nVidia: l'AA8x di queste ultime era in realtà un "mix" tra un OGSS (ordered grid supersampling, ossia il primo vero tipo di AA, si prende l'immagine e la si renderizza più grande del normale, per poi ridurla ) 4x ed un RGSS (rotated grid supersampling, come l'altro ma con i pixel lievemente inclinati, per creare un ulteriore effetto di smoothing). Tra l'altro l'AA delle ATi è ancora diverso, visto che col sistema "SmoothVision" producono un MSAA random (visto che i pixel che fanno l'antialiasing non vengono posizionati secondo un pattern prestabilito), più efficace del classico multisampling: oggi lo adotta pure nVidia su G80 e lo chiama sparse sampled multi sampling.
Con l'attuale generazione, il MSAA massimo supportato è arrivato a 8x, ma si è voluta creare tutta una serie di livelli di qualità intermedi (e superiori) ai normali livelli di MSAA. nVidia ha scelto la strada del Coverage Sampling, una specie di MultiSampling semplificato aggiuntivo (con inferiore spreco di risorse, visto che in realtà il coverage sampling viene fatto con pixel non colorati) con random grid: questo garantisce livelli migliori di AA a parità di MSAA (quindi AA migliore con poche risorse in più).
ATi ha invece scelto una strada che pare l'evoluzione di una vecchia forma di AA che aveva introdotto nVidia tanti anni fa: il Quincunx. All'epoca però il sistema era molto rudimentale, in pratica la gpu faceva il blurring dei 3 pixel vicini ai due che erano il prodotto di un RGMS2x (rotated grid multisampling, AA "reale").
Oggi invece ATi usa 2 tipi di tent filters che dovrebbero fare le veci del coverage sampling: il narrow tent filter ed il wide tent filter. Sono praticamente la stessa cosa, solo che mentre il primo fa il "blurring" prendendo un sample da ogni pixel vicino, il secondo ne prende 2 da ogni pixel vicino. Dopodichè la gpu applica un sottile blurring a questi sample presi dai pixel vicini: per evitare un effetto troppo pesante, il calcolo che viene fatto è abbastanza complesso. Ecco perchè quei filtri sono una sorta di blurring "intelligente".
L'edge detection filter invece non si sa bene come funzionerà...
Secondo me ATi ha scelto questa strada perchè il coverage sampling comunque comporta un carico aggiuntivo sulle ROPs nettamente superiore a quello che è invece causato dai tent filters.
Comunque se vuoi saperne di più, ti consiglio le recensioni di TechReport.
http://techreport.com/reviews/2007q2/radeon-hd-2900xt/index.x?pg=6
http://techreport.com/reviews/2006q4/geforce-8800/index.x?pg=7
ottima spiegazione,io so che la circuiteria decicata dell'AA per il MSAA nella rop's c'è ma so che l'AA da applicare nei giochi tipo stalker verrà calcolato dallo shader core che in molti dicono porterà a forti cali prestazionali.
Zodd_Il_nosferatu
06-06-2007, 20:35
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=27293
nuovi driver ati...
sono i 3.381 del 25/05 e non del 22...
non so cosa cambi :stordita:
Athlon 64 3000+
06-06-2007, 21:54
sono più recenti e supportano tutte le schede,chissa cosa cambia rispetto alla versione del 22 maggio.
Li ho già scaricati e vedo se avrò voglia di metterli.
ottima spiegazione,io so che la circuiteria decicata dell'AA per il MSAA nella rop's c'è ma so che l'AA da applicare nei giochi tipo stalker verrà calcolato dallo shader core che in molti dicono porterà a forti cali prestazionali.
Boh, non saprei. Il problema è che il MSAA, che è un "trucco" per evitare di dover fare il normale supersampling, non funziona bene con il deferred shading... E o lo fanno gli shaders o le ROPs non credo che cambierà qualcosa: penso sia proprio il tipo di AA a non funzionare con questo tipo di rendering. Magari l'edge detect filter potrebbe portare qualche beneficio...
Sarebbe anche interessante capire anche se i tent filters sono applicati tramite ROPs o attraverso gli shaders. :boh:
Free Gordon
07-06-2007, 00:00
sono d'accordo perchè penso che R600 dei bachi hardware non ne ha ma il fatto di avere 16 tmu e 16 rop's e una precisa scelta architetturale(cosi come aveva fatto con R580)che fa si che la scheda si trovi a suo agio con giochi sia vertex che pixel shader intensive.
Non ha 16 TMU e nemmeno 16 "ROPs" (chiamandole alla maniera di nVidia) l'architettura è un pò più incasinata.
http://images.anandtech.com/reviews/video/ATI/2900XT/texture.jpg
Sono 4 Texture Unit, con 32 texture address processor (come G80, solo che quelle di R600 lavorano a frequenze più alte), 16 texture filtering units (e quì sta il limite più grosso rispetto a G80) e 80 texture samplers FP32 (in confronto alle 64 di G80)...
In pratica R600 carica molto più velocemente le texture dalla memoria, rispetto a G80, ma le filtra decisamente più lentamente.
Questo perchè l'architettura è finalizzata molto allo sfruttamento delle texture NON filtrate, che servono principalmente per vertex texture, normal maps e per caricare qualsiasi tipo di dato generico, per cui ad esempio elaborazioni fisiche, GPGPU ecc ecc... :cool:
Se osservi questo settore, vedi che quest'architettura non è certamente tarata per far andare molto forte e ad alte res i giochi attuali (che fanno largo uso di texture filtrate e alto dettaglio statico). ;) Ma questo non vuol dire che non sia un'architettura affascinante...al pari, anzi direi di più di G80! :D
Il motivo principale del successo di G80 è che le scelte che ha fatto nVidia pagano di più nell'immediato, offrendo quello che i giocatori esigenti vogliono: alte prestazioni, ad alte res per gli attuali giochi dx9!
Athlon 64 3000+
07-06-2007, 00:04
Non ha 16 TMU e nemmeno 16 "ROPs" (chiamandole alla maniera di nVidia) l'architettura è un pò più incasinata.
http://images.anandtech.com/reviews/video/ATI/2900XT/texture.jpg
Sono 4 Texture Unit, con 32 texture address processor (come G80, solo che quelle di R600 lavorano a frequenze più alte), 16 texture filtering units (e quì sta il limite più grosso rispetto a G80) e 80 texture samplers FP32 (in confronto alle 32 di G80)...
In pratica R600 carica molto più velocemente le texture dalla memoria, rispetto a G80, ma le filtra decisamente più lentamente.
Questo perchè l'architettura è finalizzata molto allo sfruttamento delle texture NON filtrate, che servono principalmente per vertex texture, normal maps e per caricare qualsiasi tipo di dato generico, per cui ad esempio elaborazioni fisiche, GPGPU ecc ecc... :cool:
Se osservi questo settore, vedi che quest'architettura non è certamente tarata per far andare molto forte e ad alte res i giochi attuali (che fanno largo uso di texture filtrate e alto dettaglio statico). ;) Ma questo non vuol dire che non sia un'architettura affascinante...al pari, anzi direi di più di G80! :D
Il motivo principale del successo di G80 è che le scelte che ha fatto nVidia pagano di più nell'immediato, offrendo quello che i giocatori esigenti vogliono: alte prestazioni, ad alte res per gli attuali giochi dx9!
Interessante la tua analisi.
Faccio fatica a capire la storia delle texture filtrate.
Che io sappia R600 si trova maggiormente a suo agio con i giochi che fanno uso intensivo di pixel shader e vertex shader o meglio shader(sia pixel che vertex) con istruzioni molto lunghe.
Free Gordon
07-06-2007, 00:13
qualcuno mi sà spiegare stà storia dell'AA, io non ci ho capito un tubo
Wide, Narrow, Edge...
:confused:
wide e narrow sono modalità che, per ora, sfocano leggermente l'immagine.
la Edge detect invece è una modalità davvero figa (migliore della controparte nVidia) che garantisce nitidezza e qualità visiva ma è molto pesante da gestire.
Free Gordon
07-06-2007, 00:30
Faccio fatica a capire la storia delle texture filtrate.
Per filtrate si intende dal procedimento di bilinear filtering, a salire (fino all'AF).
Non c'è molto da capire: R600 ha 16 texture filter units a 750mhz, contro le 64 di G80 a 612mhz... E' un bel divario numerico/prestazionale! :D
Però se leggi i numeri, da altri punti di vista, è G80 ad essere in deficit, anche nel settore texture unit. ;)
Free Gordon
07-06-2007, 00:42
ottima spiegazione,io so che la circuiteria decicata dell'AA per il MSAA nella rop's c'è ma so che l'AA da applicare nei giochi tipo stalker verrà calcolato dallo shader core che in molti dicono porterà a forti cali prestazionali.
Tutte le dx10 potranno applicare MSAA con i giochi che usano deferred shading. ;)
Sono le schede dx9 che non lo potranno fare...
http://www.pcgameshardware.de/?article_id=602522
E' una notizia che ho postato qualche pagina fà. :D
Ps. su Xbox360 invece, Gears of War (che usa deferred shading) ha l'MSAA. Leggi l'articolo di quel nerdone di Sweeny. :D
Mister Tarpone
07-06-2007, 00:48
Ps. su Xbox360 invece, Gears of War (che usa deferred shading) ha l'MSAA. Leggi l'articolo di quel nerdone di Sweeny. :D
si è vero... c'ha l'aa1x...
scusate se non vi ho postato prima i risultaati ma ho avuto dei problemi, cmq:
con Unigine v0.4 ho fatto:
1280x1024, con tutto abilitato al Max e AA 8x (il massimo supportato del programma) e ho fatto 45.8 fps e 970 punti.
invece con le stesse configurazioni di prima ma senza AA ho fatto: 63,4fps e 1344 punti. questo con i driver 8.38.1 del 22 maggio. oggio provero con quelli del 25 e vi farò sapere i risultati. prima di trarre conclusioni sbagliate vi ricordo che io sono molto limitato dalla mia CPU, quindi è per questo che non ho prestazioni superiori.
Interessante la tua analisi.
Faccio fatica a capire la storia delle texture filtrate.
Che io sappia R600 si trova maggiormente a suo agio con i giochi che fanno uso intensivo di pixel shader e vertex shader o meglio shader(sia pixel che vertex) con istruzioni molto lunghe.
Che io sappia dai dati finora emersi pare che r600 pareggi sostanzialmente in ambito pixel shaders ma pare abbia un certo vantaggio sui geometry, peraltro ambito in cui tutta l'architettura ruota.
JoeLatino
07-06-2007, 08:23
se questa notizia fosse vera mi sa' che.....:cry:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1340&Itemid=1
in compenso da un altra parte hanno detto che le 8800gtx ed ultra scenderanno a brevissmo di circa 80/90 dollari il che porterebbe di nuovo alcuni punti a favore di Nvidia:D
si è vero... c'ha l'aa1x...
2x...supporta solo 2x e 4x...non 1x...
2x...supporta solo 2x e 4x...non 1x...
1x sembra una presa per i fondelli :D
non so che benefici possa portare una moltiplicazione x 1 :D
leoneazzurro
07-06-2007, 09:19
Non ha 16 TMU e nemmeno 16 "ROPs" (chiamandole alla maniera di nVidia) l'architettura è un pò più incasinata.
[IMG]
Sono 4 Texture Unit, con 32 texture address processor (come G80, solo che quelle di R600 lavorano a frequenze più alte), 16 texture filtering units (e quì sta il limite più grosso rispetto a G80) e 80 texture samplers FP32 (in confronto alle 32 di G80)...
64 di G80
Mister Tarpone
07-06-2007, 09:39
2x...supporta solo 2x e 4x...non 1x...
si ma a vedersi sembra un 1x...
capito?? :asd:
Non ha 16 TMU e nemmeno 16 "ROPs" (chiamandole alla maniera di nVidia) l'architettura è un pò più incasinata.
http://images.anandtech.com/reviews/video/ATI/2900XT/texture.jpg
Sono 4 Texture Unit, con 32 texture address processor (come G80, solo che quelle di R600 lavorano a frequenze più alte), 16 texture filtering units (e quì sta il limite più grosso rispetto a G80) e 80 texture samplers FP32 (in confronto alle 32 di G80)...
In pratica R600 carica molto più velocemente le texture dalla memoria, rispetto a G80, ma le filtra decisamente più lentamente.
Questo perchè l'architettura è finalizzata molto allo sfruttamento delle texture NON filtrate, che servono principalmente per vertex texture, normal maps e per caricare qualsiasi tipo di dato generico, per cui ad esempio elaborazioni fisiche, GPGPU ecc ecc... :cool:
Se osservi questo settore, vedi che quest'architettura non è certamente tarata per far andare molto forte e ad alte res i giochi attuali (che fanno largo uso di texture filtrate e alto dettaglio statico). ;) Ma questo non vuol dire che non sia un'architettura affascinante...al pari, anzi direi di più di G80! :D
Il motivo principale del successo di G80 è che le scelte che ha fatto nVidia pagano di più nell'immediato, offrendo quello che i giocatori esigenti vogliono: alte prestazioni, ad alte res per gli attuali giochi dx9!
Sono d'accordo. Il problema è che sia Crysis che UT3, i 2 titoli DirectX10 più attesi del 2007, sono stati sviluppati su G80 e credo che siano ottimizzati per esso. Crysis ha una mole poligonale spaventosa, ombre e shader molto complessi. Non sembra far uso di molte normal-map.
Ma se trovaste una GTX allo stesso prezzo di una 2900xt, quale scegliereste?
MonsterMash
07-06-2007, 10:36
Ma se trovaste una GTX allo stesso prezzo di una 2900xt, quale scegliereste?
Io se trovassi una gtx a 350 euro o meno la comprerei solo per poterla rivendere immediatamente e farci 100 euro di profitto :P
Mister Tarpone
07-06-2007, 10:39
anch'io prenderei la GTX al volo :fagiano:
Athlon 64 3000+
07-06-2007, 10:44
http://www.hwupgrade.it/download/file/3270.html
Athlon 64 3000+
07-06-2007, 10:45
Io penso che la Radeon HD 2900XT sia con Unreal Tournament 3 che con Crysis girerà bene.
MonsterMash
07-06-2007, 10:52
Non trovo i driver del 25 maggio di cui si è parlato nella scorsa paggina. Se vado al link mi porta ad un hotfix per Armed Assault per i catalyst 7.5.
Qualcuno mi sa dire dove trovarli?
Io penso che la Radeon HD 2900XT sia con Unreal Tournament 3 che con Crysis girerà bene.
lo credo pure io,con gli attuali giochi và decisamente bene non vedo perchè con crysis tutta dun colpo debba addirittura arrancare...
Athlon 64 3000+
07-06-2007, 11:05
Non trovo i driver del 25 maggio di cui si è parlato nella scorsa paggina. Se vado al link mi porta ad un hotfix per Armed Assault per i catalyst 7.5.
Qualcuno mi sa dire dove trovarli?
sono driver completi senza certificazione microsoft
Io lo ho gia installati e funzionano benissimo.
+Lonewolf+
07-06-2007, 11:09
dai postate i test dell uengine con i nuovi cata
lo credo pure io,con gli attuali giochi và decisamente bene non vedo perchè con crysis tutta dun colpo debba addirittura arrancare...
Il problema ci potrebbe essere solo con AA, se fosse obbligata ad usare lo shader core, togliendo potenza di calcolo per le altre operazioni di shading.
Però come diceva ALM, in alcuni giochi l'applicazione di AA non è così pesante per le risorse della scheda.
E come diceva Gordon, ci sono buone possibilità che anche l'AA possa funzionare meglio con driver più maturi.
In pratica, non ci sono molti indizi su come potrebbe andare sta scheda in crysis :stordita:
... se poi conti che tutti i video visti fino ad ora giravano su g80...
+Lonewolf+
07-06-2007, 11:24
Il problema ci potrebbe essere solo con AA, se fosse obbligata ad usare lo shader core, togliendo potenza di calcolo per le altre operazioni di shading.
Però come diceva ALM, in alcuni giochi l'applicazione di AA non è così pesante per le risorse della scheda.
E come diceva Gordon, ci sono buone possibilità che anche l'AA possa funzionare meglio con driver più maturi.
In pratica, non ci sono molti indizi su come potrebbe andare sta scheda in crysis :stordita:
beh...io penso che con il bus a 512bit(ben programmato si intende) l'antialiasing non dovrebbe ciucciarsi molto calcolo...
beh...io penso che con il bus a 512bit(ben programmato si intende) l'antialiasing non dovrebbe ciucciarsi molto calcolo...
Non credo che il bus centri molto. Se l'AA viene applicato tramite gli stream processors, ci potrebbero essere dei cali di prestazioni. Fermo restando che crysis si riveli (come sembra) un gioco molto shader intensive e quindi avrebbe bisogno di tutti le 64 unità di R600 per girare al meglio.
Non so, che dici leonezzurro?
gianni1879
07-06-2007, 11:40
sono driver completi senza certificazione microsoft
Io lo ho gia installati e funzionano benissimo.
bug risolti??
prestazioni uguali a prima?
+Lonewolf+
07-06-2007, 11:45
sono driver completi senza certificazione microsoft
Io lo ho gia installati e funzionano benissimo.
che cambia? migliorano le prestazioni?
bug dell' aniso risolto?
per installarli devo disinstallare i vecchi?
ragazzi ho appena preso una sapphire hd2900xt, ma non mi compare alcuna opzione di overclock nei catalyst e atitools non funziona. Come si fa per overclockarla? grazie:confused:
Athlon 64 3000+
07-06-2007, 12:02
che cambia? migliorano le prestazioni?
bug dell' aniso risolto?
per installarli devo disinstallare i vecchi?
tutto uguale ai 8.38.1 del 22 maggio e nessun baco risolto
tutto uguale ai 8.38.1 del 22 maggio e nessun baco risolto
Confermo non hanno risolto nessun bug, sinceramente ieri provando un po di giochi ho notato che ci sono ancora parecchi problemi , diciamo in quasi tutti quelli che ho provato ci sono bug da risolvere:rolleyes:
La stai alimentando con un 2x3 e un 2x4 o con due 2x3? Nel secondo caso non puoi overclockarla con i Catalyst ma puoi farlo con il AMD GPU Clock Tool, apri google e lo trovi.
ok, chiarissimo.
Alimento con 2x 2x3......
grazie
leoneazzurro
07-06-2007, 12:48
Non credo che il bus centri molto. Se l'AA viene applicato tramite gli stream processors, ci potrebbero essere dei cali di prestazioni. Fermo restando che crysis si riveli (come sembra) un gioco molto shader intensive e quindi avrebbe bisogno di tutti le 64 unità di R600 per girare al meglio.
Non so, che dici leonezzurro?
Il bus esterno con la memoria c'entra poco, il ring bus interno parecchio, in quanto attraverso di esso si devono gestire i dati tra Render back-ends e shader core. Comunque non è che TUTTO l'AA sia gestito via shaders, ma solo alcuni specifici compiti. Ad esempio, il floating point blending è gestito nei RBE (o ROPS che dir si voglia). Mi è stato detto che la potenza sottratta agli shaders negli scenari più comuni (dato che dipende da risoluzione e tipo di AA applicato) è entro il 10%, rilevante ma non definitivamente castrante. Più che altro, il problema di questo approccio è (oltre alla "riduzione" della potenza di shading) che complica ancora di più uno scheduling, ossia la gestione della "coda" di istruzioni da elaborare, già complesso di per se, a causa della particolare architettura di R600.
TecnoWorld8
07-06-2007, 12:59
se non esce R650, allora ATi ha deciso di suicidarsi...secondo me già ha perso un sacco di clienti ritardando così tanto R600 e facendola poi uscire con prestazioni non al top, ora se nVidia riuscirà a mettere sul mercato una 8900 nell'autunno e ATi non avrà una contromossa, credo che la credibilità toccherà terra. Almeno questo è il mio pensiero. Dato che intendo acquistare una scheda per l'uscita dei giochi DX10, credo proprio che a questo punto sarà nVidia...mi spiacerebbe, ma è così.
JoeLatino
07-06-2007, 13:23
scusate,ma giusto per curiosita' qualcuno ha gia' provato questa mod per il connettore a 8 pin??
scusate se non vi ho postato prima i risultaati ma ho avuto dei problemi, cmq:
con Unigine v0.4 ho fatto:
1280x1024, con tutto abilitato al Max e AA 8x (il massimo supportato del programma) e ho fatto 45.8 fps e 970 punti.
invece con le stesse configurazioni di prima ma senza AA ho fatto: 63,4fps e 1344 punti. questo con i driver 8.38.1 del 22 maggio. oggio provero con quelli del 25 e vi farò sapere i risultati. prima di trarre conclusioni sbagliate vi ricordo che io sono molto limitato dalla mia CPU, quindi è per questo che non ho prestazioni superiori.
allora con quelli nuovi mi trovo malissimo, ho fatto:
1280x1024 con tutto al max e aa 8x 33.2fps e 704 punti :mad: :mad: ho la vaga impressione che i nuovi driver abbiano qualcosa che nn va! invece senza aa non si arriva nemmeno a 800punti!:cry: :cry:
e a voi risulta?
PS: ho eseguito i test almeno 4 volte e ho anche riavviato il pc, ho pensato che ci fossero degli altri problemi, ma i risultati sono gli stessi! fatemi sapere!
+Lonewolf+
07-06-2007, 14:36
osservo in base ai risultati dei miei test che la scheda ha qualche problema con la gestione del ssAA...cmq c'è un punto incriminato nel bench, quello nell'erba alta, in cui il frame rate scende molto in basso(anche quello della cascata quindi deduco che in futuro con i nuovi driver dovranno lavorare molto sul geometry shader), per il resto fluidissimo, per buona parte sopra i 30;) soddisfatto
ah dimenticavo, la scheda è completamente a default
http://img514.imageshack.us/my.php?image=cojnoaamn3.jpg noAA
http://img361.imageshack.us/my.php?i...jmsaa2xgw0.jpg MSAA 2x
http://img361.imageshack.us/my.php?i...jmsaa4xcr2.jpg MSAA 4X
http://img507.imageshack.us/my.php?i...jssaa2xou5.jpg SSAA 2x
http://img459.imageshack.us/my.php?i...jssaa4xtp1.jpg SSAA 4X
MonsterMash
07-06-2007, 14:37
scusate,ma giusto per curiosita' qualcuno ha gia' provato questa mod per il connettore a 8 pin??
Molto inetressante, se funziona.
Ma chi ha il coraggio di provare? :D
+Lonewolf+
07-06-2007, 14:41
nessun commento sul mio bench....? che ne pensate?
osservo in base ai risultati dei miei test che la scheda ha qualche problema con la gestione del ssAA...cmq c'è un punto incriminato nel bench, quello nell'erba alta, in cui il frame rate scende molto in basso(anche quello della cascata quindi deduco che in futuro con i nuovi driver dovranno lavorare molto sul geometry shader), per il resto fluidissimo, per buona parte sopra i 30;) soddisfatto
ah dimenticavo, la scheda è completamente a default
http://img514.imageshack.us/my.php?image=cojnoaamn3.jpg noAA
http://img361.imageshack.us/my.php?i...jmsaa2xgw0.jpg MSAA 2x
http://img361.imageshack.us/my.php?i...jmsaa4xcr2.jpg MSAA 4X
http://img507.imageshack.us/my.php?i...jssaa2xou5.jpg SSAA 2x
http://img459.imageshack.us/my.php?i...jssaa4xtp1.jpg SSAA 4X
Quindi non è colpa dell'AA... E' proprio il bench che è pesantissimo.
Il SSAA è normale che sia molto più pesante del "classico" MSAA, perchè il supersampling AA è il vero AA (ossia si renderizza un immagine n volte più grande di quella che verrà mostrata a schermo e poi la si riduce, es: per un 1280x1024 SSAA2x viene renderizzata un'immagine a 2560x2048). Il MSAA è un "trucco" per ottenere una qualità di immagine simile con minori calcoli. ;)
-Feanor-
07-06-2007, 14:51
nessun commento sul mio bench....? che ne pensate?
a mio modesto parere.....:Puke: ....non per i tuoi specifici...sia ben chiaro...perche sono in linea con tutti quelli che si trovano su internet...ma il problema è proprio qst....va bene che non è per niente ottimizzato...soprattutto via driver....e non è di certo dx10 nativo....ma se qst si conferma l'andazzo della nuova generazione.....:rolleyes: ........per quanto riguarda i tuoi...non è male...infatti ripeto, è simile a quelli delle varie recensioni.........
+Lonewolf+
07-06-2007, 14:54
a mio modesto parere.....:Puke: ....non per i tuoi specifici...sia ben chiaro...perche sono in linea con tutti quelli che si trovano su internet...ma il problema è proprio qst....va bene che non è per niente ottimizzato...soprattutto via driver....e non è di certo dx10 nativo....ma se qst si conferma l'andazzo della nuova generazione.....:rolleyes: ........per quanto riguarda i tuoi...non è male...infatti ripeto, è simile a quelli delle varie recensioni.........
beh...io nn intendevo un parere se sono buoni o no, io intendevo dire se condividete i problemi che io ho evidenziato...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.