PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 [44] 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Lino P
24-09-2007, 13:01
Raga, imho quella presentata domani, sarà di sicuro una nuova top di gamma, lo dimostra il calo di prezzi che la 2900 XT ha subito in molti shop online negli ultimi 2 giorni...
Presumo una XTX...

Pat77
24-09-2007, 13:12
Il problema vero resterà sempre lo stesso, ottimizzazione specifica per ogni titolo, mentre da parte Nvidia questo aspetto è molto meno marcato, e lo si vede in bioshock dove dovrebbe essere meglio, invece, risulta peggio (dx10).

fukka75
24-09-2007, 13:44
Raga, imho quella presentata domani, sarà di sicuro una nuova top di gamma, lo dimostra il calo di prezzi che la 2900 XT ha subito in molti shop online negli ultimi 2 giorni...
Presumo una XTX...

Quali shop?

mordsiger
24-09-2007, 13:54
....ragazzi sono scappato a casa per pausa pranzo e ho messo su i driver 8.0 beta ( nel CCC compare 8.42 RC3)

dunque riassunto del poco tempo dedicatogli

1_ 3dmark06 aumento di 50 punti dai 7.9
2_ artefatti nel 2D nn li fa + (con i 7.9 si)
3_ ho provato veloce nwn2 e fa 2-3 fps in +
4_ sempre in nwn2 è migliorato parecchio a vista d'occhio la qualità dell AA e AF e anche delle ombre
5_ adesso ti fa vedere i reali x dell'AA con le varie modalità
6_ è comparso l'adaptive AA supersampling e multisampling come da foto

http://img503.imageshack.us/img503/2950/80cccrj4.th.jpg (http://img503.imageshack.us/my.php?image=80cccrj4.jpg)

stasera continuo con i test... ma sono rimasto stupito già così.... soprattutto per la qualità dell'AA

gianni1879
24-09-2007, 13:55
Raga, imho quella presentata domani, sarà di sicuro una nuova top di gamma, lo dimostra il calo di prezzi che la 2900 XT ha subito in molti shop online negli ultimi 2 giorni...
Presumo una XTX...

credo sia un calo fisiologico, non penso sia legato a questo!

M4R1|<
24-09-2007, 14:03
nn lo fai xò se scrivi cose del genere...

...120Win idle e 280W in load??? :eek: ...fortunatamente la situazione è molto + rosea di quella ke descrivi e nn credo si arriverà mai a quei livelli...

...il consumo in idle si assesta sui 70W al pari della GTX e 160W in full load (30W in + della GTX e 55W in + della GTS)...

... http://www.xbitlabs.com/articles/video/display/r600-architecture_14.html#sect0 ...(qui trovi consumo e rumore delle varie kede DX10 misurati strumentalmente e quindi abb precisi)...

...dal punto d vista del consumo nn son circa 60W (nel caso della diretta concorrente GTS 640mb) a creare problemi dato ke se l'ali ce la fa ad alimentare una ce la fa ad alimentare anke l'altra (difficilmente gl ali li si usano al max delle loro capacità)...la differenza sulla bolletta derivante da un consumo così è qualcosa d irrisorio ed equivalente a poke decine d 'euro all'anno...
cut


mhm pensavo fosse sottointeso: mi riferivo ha un sistema completo, cioè cpu, mobo, ram e vga.

evidentemente nn era così chiaro. va be (edito il mio pcst cmq)

Chicco85
24-09-2007, 14:07
....ragazzi sono scappato a casa per pausa pranzo e ho messo su i driver 8.0 beta ( nel CCC compare 8.42 RC3)

dunque riassunto del poco tempo dedicatogli

1_ 3dmark06 aumento di 50 punti dai 7.9
2_ artefatti nel 2D nn li fa + (con i 7.9 si)
3_ ho provato veloce nwn2 e fa 2-3 fps in +
4_ sempre in nwn2 è migliorato parecchio a vista d'occhio la qualità dell AA e AF e anche delle ombre
5_ adesso ti fa vedere i reali x dell'AA con le varie modalità
6_ è comparso l'adaptive AA supersampling e multisampling come da foto

http://img503.imageshack.us/img503/2950/80cccrj4.th.jpg (http://img503.imageshack.us/my.php?image=80cccrj4.jpg)

stasera continuo con i test... ma sono rimasto stupito già così.... soprattutto per la qualità dell'AA

Interessante...

Io ho fatto una prova veloce su xp, solo che ho problemi con il CCC. Non credo che la colpa sia dei driver ma bensì del sistema stesso (è un xp da bench striminzito...).

Nell'unica prova che ho fatto (3d mark 2k6), sono passato da 112xx dei 7.8 a 114xx di questi beta. Avrei voluto provare con l'AA, ma non riuscivo a forzarlo nemmeno con tool di terze parti (sempre per casini vari CCC ecc. probabilmente)

fustacchione90
24-09-2007, 14:11
raga ma che cambia dai beta ai normali? cioè se li metto su e la sk si rompe rispondono lo stesso? vanno tanto meno dei 7.10 completi che usciranno?

M4R1|<
24-09-2007, 14:12
....ragazzi sono scappato a casa per pausa pranzo e ho messo su i driver 8.0 beta ( nel CCC compare 8.42 RC3)

dunque riassunto del poco tempo dedicatogli

1_ 3dmark06 aumento di 50 punti dai 7.9
2_ artefatti nel 2D nn li fa + (con i 7.9 si)
3_ ho provato veloce nwn2 e fa 2-3 fps in +
4_ sempre in nwn2 è migliorato parecchio a vista d'occhio la qualità dell AA e AF e anche delle ombre
5_ adesso ti fa vedere i reali x dell'AA con le varie modalità
6_ è comparso l'adaptive AA supersampling e multisampling come da foto

http://img503.imageshack.us/img503/2950/80cccrj4.th.jpg (http://img503.imageshack.us/my.php?image=80cccrj4.jpg)

stasera continuo con i test... ma sono rimasto stupito già così.... soprattutto per la qualità dell'AA

la cosa è molto interessante, aspetto impazientemente test :D

mordsiger
24-09-2007, 14:13
Interessante...

Io ho fatto una prova veloce su xp, solo che ho problemi con il CCC. Non credo che la colpa sia dei driver ma bensì del sistema stesso (è un xp da bench striminzito...).

Nell'unica prova che ho fatto (3d mark 2k6), sono passato da 112xx dei 7.8 a 114xx di questi beta. Avrei voluto provare con l'AA, ma non riuscivo a forzarlo nemmeno con tool di terze parti (sempre per casini vari CCC ecc. probabilmente)

anche io ho provato con Xp e il ccc funziona benissimo... stasera proverò anche io con l'aa (nwn2 io lo tengo tutto in quality con l'aa a 8X e tutte le ombre, il vsync e il triple buffer ed è migliorato 2-3 fps...quindi presumo che anche 3dmark con aa sia migliorato sia di fps che di qualità come dicevo prima)

×§ñåkê×
24-09-2007, 14:13
....ragazzi sono scappato a casa per pausa pranzo e ho messo su i driver 8.0 beta ( nel CCC compare 8.42 RC3)

ricordo che i driver ati sono 12 come i mesi del anno...

i 7.10 beta non sono i 8.0...

in realtà devono ancora venire i 7.11 e i 7.12, e i successivi saranno 8.1 e non 8.0 :rolleyes:

Chicco85
24-09-2007, 14:14
ricordo che i driver ati sono 12 come i mesi del anno...

i 7.10 beta non sono i 8.0...

in realtà devono ancora venire i 7.11 e i 7.12, e i successivi saranno 8.1 e non 8.0 :rolleyes:

Così li hanno chiamati... che sia un errore o una cosa voluta per ora non si sa. ;)

Chicco85
24-09-2007, 14:14
anche io ho provato con Xp e il ccc funziona benissimo... stasera proverò anche io con l'aa (nwn2 io lo tengo tutto in quality con l'aa a 8X e tutte le ombre, il vsync e il triple buffer ed è migliorato 2-3 fps...quindi presumo che anche 3dmark con aa sia migliorato sia di fps che di qualità come dicevo prima)

Ecco appunto, anche perchè questi sono solo per xp. :D

mordsiger
24-09-2007, 14:15
ricordo che i driver ati sono 12 come i mesi del anno...

i 7.10 beta non sono i 8.0...

in realtà devono ancora venire i 7.11 e i 7.12, e i successivi saranno 8.1 e non 8.0 :rolleyes:

nel sito station_driver te li danno da scaricare come 8.0 beta.... altro nn so cmq è solo un nome...l'importante è la sostanza !!!!!!

cmq quelli che dicevano che i driver potevano fare ormai poco sbagliavano !!!

M4R1|<
24-09-2007, 14:19
nel sito station_driver te li danno da scaricare come 8.0 beta.... altro nn so cmq è solo un nome...l'importante è la sostanza !!!!!!

cmq quelli che dicevano che i driver potevano fare ormai poco sbagliavano !!!

quoto!!!

M4R1|<
24-09-2007, 14:25
quanlcuno ha provato il nuovo bench Knights of the Sea, in dx10?

io lo metto ora in down, ma mi piacerebbe avere dei commenti in anticipo :D

webbuffa
24-09-2007, 14:25
:eek: Raga sta RC3 è fenomenale :)...

una cosa mi chiedo, le nuove opzioni dell'adaptative antialiasing :) servono per i giochi tipo bioshock :)? o altri dx10 :)?

P.S.

Nella descrizione del nuovo bench dx10...

"Sono supportate, ovviamente, solo schede grafiche compatibili con DirectX 10, in particolare le ATI Radeon HD 2900 e 2600, e le NVIDIA GeForce 8800 e 8600. Driver consigliati: Catalyst 7.9 per ATi, ForceWare 163.71 beta (appena rilasciati) per nVidia."

:eek:!!!!

mordsiger
24-09-2007, 14:26
secondo me da qui agli ultimi driver che usciranno per fin dell'anno questa diventerà una bella schedina.... poi lo so che mi si spappolerà il cervello perchè uscirà una new entry + potente e io mi sono preso da un mese neanche la 2900 1Gb !!!!
cmq chi vivrà vedrà !!! (scusate il luogo comune...hihihih)

mordsiger
24-09-2007, 14:28
:eek: Raga sta RC3 è fenomenale :)...

una cosa mi chiedo, le nuove opzioni dell'adaptative antialiasing :) servono per i giochi tipo bioshock :)? o altri dx10 :)?

provati? calcolando che hanno ancora 3 settimane per l'uscita dei WHQL ufficiali... sembra che stavolta il famoso salto di performance ci sia davvero !!!

magari nn abissale ma c'è !!!!

fukka75
24-09-2007, 14:47
Nella descrizione del nuovo bench dx10...

"Sono supportate, ovviamente, solo schede grafiche compatibili con DirectX 10, in particolare le ATI Radeon HD 2900 e 2600, e le NVIDIA GeForce 8800 e 8600. Driver consigliati: Catalyst 7.9 per ATi, ForceWare 163.71 beta (appena rilasciati) per nVidia."

:eek:!!!!

Se è un bench esclusivamente DX10 non ved cosa ci sia da stupirisi se gira solo su scheda DX10 ;)

webbuffa
24-09-2007, 14:50
Se è un bench esclusivamente DX10 non ved cosa ci sia da stupirisi se gira solo su scheda DX10 ;)

:O Si infatti niente di particolare... strano che nn segnali anche 2400 e 8400... :)

-Feanor-
24-09-2007, 14:53
so che non interessera molte persone....cmq

Ecco come abilitare l’overclock sulle 2900XTs in CrossFire (http://www.dinoxpc.com/News/news.asp?ID_News=13218&What=News&tt=Ecco+come+abilitare+l%92overclock+sulle+2900XTs+in+CrossFire)

M4R1|<
24-09-2007, 14:54
:O Si infatti niente di particolare... strano che nn segnali anche 2400 e 8400... :)

si ma aparte tutto le 2400 e le 8400 nn sono adatte al game, qualunque esso sia (a parte solo alcuni retro-game).

cmq sono morlo curioso su questi cata, anzi a dire la verità lo sono da mesi :D

mordsiger
24-09-2007, 14:55
so che non interessera molte persone....cmq

Ecco come abilitare l’overclock sulle 2900XTs in CrossFire (http://www.dinoxpc.com/News/news.asp?ID_News=13218&What=News&tt=Ecco+come+abilitare+l%92overclock+sulle+2900XTs+in+CrossFire)

mi piacerebbe essere interessato....ma....dovrei lavorare alla zecca di stato e stampare un po' di fogli magici per esserlo !!!!

Lino P
24-09-2007, 14:56
credo sia un calo fisiologico, non penso sia legato a questo!

Domani avremo anche questa risposta..
Se la mia supposizione è giusta, gli shop vogliono liberarsi quanto prima delle scorte momentanee..
Una vera rivale delle top di gamma nVIDIA del resto, ATI non l'ha ancora proposta. Un conto è arrampicarsi su un titolo si, l'altro no, e su un driver riuscito e l'altro un po' meno, e un altro conto è proporre una soluzione alla pari come ai tempi di 6800 Ultra vs X 800 XT PE...
E poi perchè non attendersi una XTX? :)

mordsiger
24-09-2007, 14:58
Domani avremo anche questa risposta..
Se la mia supposizione è giusta, gli shop vogliono liberarsi quanto prima delle scorte momentanee..
Una vera rivale delle top di gamma nVIDIA del resto, ATI non l'ha ancora proposta. Un conto è arrampicarsi su un titolo si, l'altro no, e su un driver riuscito e l'altro un po' meno, e un altro conto è proporre una soluzione alla pari come ai tempi di 6800 Ultra vs X 800 XT PE...
E poi perchè non attendersi una XTX? :)

speriamo proprio....speriamo anche nn sia a 90nm ma a 65 o 55 !!!.... sarebbe bello soprattutto per l'overclock !!!

M4R1|<
24-09-2007, 15:00
mi piacerebbe essere interessato....ma....dovrei lavorare alla zecca di stato e stampare un po' di fogli magici per esserlo !!!!

c'è chi come me che li stampa in cantina :D:Prrr: :D

lol magari

fukka75
24-09-2007, 15:01
Domani avremo anche questa risposta..
Se la mia supposizione è giusta, gli shop vogliono liberarsi quanto prima delle scorte momentanee..
Una vera rivale delle top di gamma nVIDIA del resto, ATI non l'ha ancora proposta. Un conto è arrampicarsi su un titolo si, l'altro no, e su un driver riuscito e l'altro un po' meno, e un altro conto è proporre una soluzione alla pari come ai tempi di 6800 Ultra vs X 800 XT PE...
E poi perchè non attendersi una XTX? :)

Rifaccio la domanda: di quali shop parli? di che percentuale media di ribasso?

mordsiger
24-09-2007, 15:04
Rifaccio la domanda: di quali shop parli? di che percentuale media di ribasso?

dai miei rivenditori autorizzati è calata di € 8+IVA la sapphire... quindi € 15 all'end user....nn so che rilevanza può avere !!!

Chicco85
24-09-2007, 15:04
Rifaccio la domanda: di quali shop parli? di che percentuale media di ribasso?

Infatti, sono curioso anche io...non vedo poi questo gran ribasso. :confused: :)

Lino P
24-09-2007, 15:07
guarda, es...dì shop, che seguo sempre perchè ha sede anche qui a BN, l'ha mandata giù di qusi 20 euro nel giro di qualche giorno; ed anche una ricerca con trovaprezzi effettuata oggi ha dato esiti simili per altri shop.
Visto che la sto tenendo d'occhio, la cosa mi è risaltata immediatamente..

Chicco85
24-09-2007, 15:11
Quello che hai menzionato ce l'aveva da maggio a 399 € circa, dove l'ho presa io ad esempio è calata di 10 € (e l'ho presa da un distributore ufficiale Club3d...). Direi che è tutto nella norma.

fukka75
24-09-2007, 15:29
Gli shop tedeschi hanno sempre gli stessi prezzi; quanto a trovaprezzi, il prezzo è sempre lo stesso, con due inferiori ai 340, e il resto nella media di 350€ e oltre ;)

Quoziente
24-09-2007, 15:54
Sono proprio curioso di sapere cos'é questo dark side di AMD/ATI... Drivers? CPU? GPU? O magari domani debutta r700???(see come no...:rolleyes: )
Si, si, una bella HD 3900 XT...:rolleyes: :rolleyes: :rolleyes:

A mio avviso se la cosa interessa ATI ci sono 2 possibilità:
- i famosissimi drivers riscritti per la serie HD che danno una spinta paurosa alle schede
- una nuova top di gamma che competa (o vada meglio) della 8800 ultra

Sarei felice per entrambe le ipotesi; certo se fosse la prima per chi come me ha la 2900 sarebbe meglio... Se fosse la seconda però ripartirebbe il mercato, nvidia potrebbe rilasciare a breve una 8900 o una 9800...

Athlon 64 3000+
24-09-2007, 16:09
l'unica cosa che mi viene in mente di dire che può essere presentato di tutto domani.

mordsiger
24-09-2007, 16:20
qualcuno di voi mi sa spiegare effettivamente cosa succede quando si abilita l'adaptive antialiasing nella 2900?

cos'è?

poi voi tenete abilitato il catalyst ai?

anche quello cos'è? che fa?

grazie anticipatamente

-Feanor-
24-09-2007, 16:26
ATi RV670 a partire da 199 dollari (http://www.tomshw.it/news.php?newsid=11447)

;)

mordsiger
24-09-2007, 16:38
poi adesso che con i nuovi beta driver si può impostare l'adaptive sia multisampling che supersampling....che differenza c'è fra i 2?

Iantikas
24-09-2007, 17:22
qualcuno di voi mi sa spiegare effettivamente cosa succede quando si abilita l'adaptive antialiasing nella 2900?

cos'è?

poi voi tenete abilitato il catalyst ai?

anche quello cos'è? che fa?

grazie anticipatamente

l'adaptive antialiasing è l'antialiasing x le texture trasparenti ( x es. antenne, reti, foglie)...tutte texture ke con il normale AA nn vengono proprio processate...

...è molto oneroso...sopratutto nella modalità qualità...

...cmq questi nuovi driver nn portano niente d realmente innovativo in questo campo...

...con skede nvidia già a partire dalle 7800 era possibile applicare questo tipo d'AA (ke infatti fu una delle cose ke publicizzarono d + ai tempi)...e nvidia prevedeva appunto due opzioni il trasparency multisampling e l'omonimo ma supersampling...

...ati introdusse anke lei l'aa x texture trasparenti ma lo fece in maniera diversa...i due livelli performance/quality vanno entrambi in supersampling ma il primo utilizza un campionamento pari alla metà d quello impostato x l'AA d tipo BOX (cioè se imposti 4xAA + PAAA hai un AA x texture trasparenti a 2x...mentre con QAAA lo hai a 4x...ma in entrambi icasi in supersampling)...

...ora invece dano la posibilità d scegliere d poterlo fare anke in multisampling offrendo quindi una rosa + ampia d'opzioni...

...il Catalyst AI son invece le ottimizzazioni dei driver x ogni applicazione...ti conviene lasciarlo abilitato xkè le ottimizzazioni x i vari gioki si attivano proprio mediante questa opzione dei CCC
(inoltre oltre alle ottimizzazioni dal punto d vista delle perfoamcne perdi anke funzionalità "speciali" tipo x es. la possibilità d attivare HDR+AA in oblivion)...

...su config CF inoltre è consigliabile tenerlo sempre su Advanced...solo in questo modo in mancanza d un profilo apposito il driver fa funzionare le skede in AFR...

...ciao

mordsiger
24-09-2007, 17:34
l'adaptive antialiasing è l'antialiasing x le texture trasparenti ( x es. antenne, reti, foglie)...tutte texture ke con il normale AA nn vengono proprio processate...

...è molto oneroso...sopratutto nella modalità qualità...

...cmq questi nuovi driver nn portano niente d realmente innovativo in questo campo...

...con skede nvidia già a partire dalle 7800 era possibile applicare questo tipo d'AA (ke infatti fu una delle cose ke publicizzarono d + ai tempi)...e nvidia prevedeva appunto due opzioni il trasparency multisampling e l'omonimo ma supersampling...

...ati introdusse anke lei l'aa x texture trasparenti ma lo fece in maniera diversa...i due livelli performance/quality vanno entrambi in supersampling ma il primo utilizza un campionamento pari alla metà d quello impostato x l'AA d tipo BOX (cioè se imposti 4xAA + PAAA hai un AA x texture trasparenti a 2x...mentre con QAAA lo hai a 4x...ma in entrambi icasi in supersampling)...

...ora invece dano la posibilità d scegliere d poterlo fare anke in multisampling offrendo quindi una rosa + ampia d'opzioni...

...il Catalyst AI son invece le ottimizzazioni dei driver x ogni applicazione...ti conviene lasciarlo abilitato xkè le ottimizzazioni x i vari gioki si attivano proprio mediante questa opzione dei CCC
(inoltre oltre alle ottimizzazioni dal punto d vista delle perfoamcne perdi anke funzionalità "speciali" tipo x es. la possibilità d attivare HDR+AA in oblivion)...

...su config CF inoltre è consigliabile tenerlo sempre su Advanced...solo in questo modo in mancanza d un profilo apposito il driver fa funzionare le skede in AFR...

...ciao

mille grazie.... quindi multisampling è + leggero del supersampling ? si... mi autorispondo poi se erro dimmelo.

io il catalyst ai l'ho sempre disattivato subito.. nn ho neanche mai visto come va con... ma sempre senza.

stasera faccio subito delle prove... lo devo mettere su advanced? perchè?

Lino P
24-09-2007, 18:09
Quello che hai menzionato ce l'aveva da maggio a 399 € circa, dove l'ho presa io ad esempio è calata di 10 € (e l'ho presa da un distributore ufficiale Club3d...). Direi che è tutto nella norma.

vabbè, certo non possono cominciare a regalarla...:)

mtk
24-09-2007, 18:20
ho trovato un negozio italiano che vende la 2900pro.....

Lino P
24-09-2007, 18:23
visto....
un po' altino il prezzo...

mtk
24-09-2007, 18:47
gia' probabilmente cercano di piazzarla sfruttando l esclusiva del momento,ma 70 euro in piu' c e' la xt.....boh..

Lino P
24-09-2007, 19:09
quoto...

Nos89
24-09-2007, 19:23
si ma se la Pro a parte le frequenze è uguale alla XT e costa 80€ di meno...chi si prenderà l'XT?

mtk
24-09-2007, 19:37
la pro (2900) verra' prodotta in quantita' limitate sfruttando il silicio scartato per la xt e dal momento che non regge le frequenze xt suppongo che per arrivare alle frequenze della sorellona sara' quantomeno obbligatorio overvoltare....ma cosi facendo consumo e calore salirebbero notevolmente nel caso di un oc rendendo l oc stesso molto dispendioso dal punto di vista energetico e acustico...sicuramente avra' prestazioni discrete/buone ma dalla mia piccola esperienza con ati ho notato che i migliori benefici arrivano dall oc del core(non che le ram non contino ma da quello che vedo in misura minore) e anche se non ho la 2900xt mi e' sembrato di capire che il lavoro degli stream processor sia pesantemente influenzato dalla frequenza di lavoro del core...quindi la 2900 pro mi sembra,diversamente da cio' che speravo,una scheda discreta a def..probabilmente ottima con oc (se possibile) ma comunque troppo vorace per quello che dovra' fare.quindi meglio spendere qualcosa in piu' con la certezza delle prestazioni e con la possibilita' sicura di poter eventualmente fare oc.ovviamente questa e' la mia opinione :D

Foglia Morta
24-09-2007, 19:39
visto che se ne parla posto anche qui...

http://pclab.pl/art28806-4.html

Nos89
24-09-2007, 19:40
la pro (2900) verra' prodotta in quantita' limitate sfruttando il silicio scartato per la xt e dal momento che non regge le frequenze xt suppongo che per arrivare alle frequenze della sorellona sara' quantomeno obbligatorio overvoltare....ma cosi facendo consumo e calore salirebbero notevolmente nel caso di un oc rendendo l oc stesso molto dispendioso dal punto di vista energetico e acustico...sicuramente avra' prestazioni discrete/buone ma dalla mia piccola esperienza con ati ho notato che i migliori benefici arrivano dall oc del core(non che le ram non contino ma da quello che vedo in misura minore) e anche se non ho la 2900xt mi e' sembrato di capire che il lavoro degli stream processor sia pesantemente influenzato dalla frequenza di lavoro del core...quindi la 2900 pro mi sembra,diversamente da cio' che speravo,una scheda discreta a def..probabilmente ottima con oc (se possibile) ma comunque troppo vorace per quello che dovra' fare.quindi meglio spendere qualcosa in piu' con la certezza delle prestazioni e con la possibilita' sicura di poter eventualmente fare oc.ovviamente questa e' la mia opinione :D

io preferisco qualche mhz in meno con possibilità di OC +80€ da spendere in cazzate:D

mordsiger
24-09-2007, 19:42
ho notato adesso con i nuovi beta driver che l'adaptive AA si può settare in "performance" o "quality" con il supersampling , mentre col multisampling cambia : si può spostare la barretta verso sinistra dove c'è "Smooth" o verso destra dove c'è "Sharp" con 2 intermezzi fra i suddetti.... mo che sarebbe sta storia?

che vuole dire? qualcuno sa spiegarmi?

cmq per la cronaca ho provato con il catalyst ai in nwn2 guadagno fps... nel 3dmark06 invece perdo 400 punti rispetto a senza.

mtk
24-09-2007, 19:48
io preferisco qualche mhz in meno con possibilità di OC +80€ da spendere in cazzate:D

si ma il discorso e' che non hai la certezza di poter occare la scheda,se il core delle xt deve lavorare alla frequenza x deve farlo in sicurezza e stabilita',quindi il silicio scartato e' impossibilitato a fare quella cosa...sicuramente la pro avra' voltaggi minori per andare alla frequenza piu' bassa y,ma non e' detto che con gli stessi valori di voltaggio della xt (o superiori) sia possibile guadagnare in frequenze.
se ci fosse un bench tra le due schede e la differenza fosse poca allora si potrebbe rischiare l acquisto per provare a fare oc,ma se le differenze fossero ampie non credo che ne varrebbe la pena....sarebbe un terno al lotto beccare una scheda con silicio scartato per un piccolo raffreddore :asd:

ps.ma ho problemi di vista io o da quel link le 2900xt "zoppe" sono migliori delle xt "sane"?non e' possibile....tutti a downvoltare.....
pps.no niente....avevo guardato solo la prima pagina...chiedo venia....riovervoltate..

Iantikas
24-09-2007, 22:21
mille grazie.... quindi multisampling è + leggero del supersampling ? si... mi autorispondo poi se erro dimmelo.

io il catalyst ai l'ho sempre disattivato subito.. nn ho neanche mai visto come va con... ma sempre senza.

stasera faccio subito delle prove... lo devo mettere su advanced? perchè?


solo sei hai CF...se hai una sola skeda mettilo su standard...ciao

Chicco85
24-09-2007, 22:25
ps.ma ho problemi di vista io o da quel link le 2900xt "zoppe" sono migliori delle xt "sane"?non e' possibile....tutti a downvoltare.....
pps.no niente....avevo guardato solo la prima pagina...chiedo venia....riovervoltate..

Beh, io downvolto sia in 2D che in 3D... :sofico:

Iantikas
24-09-2007, 22:28
ho notato adesso con i nuovi beta driver che l'adaptive AA si può settare in "performance" o "quality" con il supersampling , mentre col multisampling cambia : si può spostare la barretta verso sinistra dove c'è "Smooth" o verso destra dove c'è "Sharp" con 2 intermezzi fra i suddetti.... mo che sarebbe sta storia?

che vuole dire? qualcuno sa spiegarmi?

cmq per la cronaca ho provato con il catalyst ai in nwn2 guadagno fps... nel 3dmark06 invece perdo 400 punti rispetto a senza.


sono soltanto i nomi scelti x identificare il livello d qualità...anzikè usare "performance" e "quality" c'hanno messo "liscio" e seghettato"...ma nn penso ke abbiano introdotto nessuna novità nel metodo in cui si applica questo tipo d filtro altrimenti nn l'avrebbero kiamato "multisampling adaptive"...

...ciao

IVANPE
25-09-2007, 09:04
Ciao a tutti, non so se il problema è stato già posto, ma non ho il tempo di leggere 500 pagine di questa discussione!!!

Qualcuno ha esperienza in overclock delle 2900xt in crossfire?

Nemmeno con amd oc tool riesco a overclokkare, in effetti nemmeno la lettura delle frequenze mi sembra corretta, infatti la seconda scheda la vede a 507mhz anche in 3d.

Collegandi il connettore 8pin risolverei il problema??

Help please?

mordsiger
25-09-2007, 09:06
Ciao a tutti, non so se il problema è stato già posto, ma non ho il tempo di leggere 500 pagine di questa discussione!!!

Qualcuno ha esperienza in overclock delle 2900xt in crossfire?

Nemmeno con amd oc tool riesco a overclokkare, in effetti nemmeno la lettura delle frequenze mi sembra corretta, infatti la seconda scheda la vede a 507mhz anche in 3d.

Collegandi il connettore 8pin risolverei il problema??

Help please?

problema risolto !!

http://www.dinoxpc.com/News/news.asp?ID_News=13218&What=News&tt=Ecco+come+abilitare+l%92overclock+sulle+2900XTs+in+CrossFire

IVANPE
25-09-2007, 09:10
problema risolto !!

http://www.dinoxpc.com/News/news.asp?ID_News=13218&What=News&tt=Ecco+come+abilitare+l%92overclock+sulle+2900XTs+in+CrossFire

Finalmente!!!
Grazie mille!!!!!!

mordsiger
25-09-2007, 09:13
è arrivato il fatidico 25-09-2007 .... si sa ancora niente?


spero che nn sia questa la notizia....


http://www.tomshw.it/news.php?newsid=11451

IVANPE
25-09-2007, 09:14
di cosa?

mordsiger
25-09-2007, 09:18
di cosa?

oggi "dovrebbe" uscire un qualcosa di nuovo, una nuova vga, un nuovo proc, un nuovo driver, un nuovo chipset da parte di AMD/ATI.....chi lo sa

ieri si discuteva e tutti eravamo in attesa di sapere sto segreto....

Iantikas
25-09-2007, 09:44
Ciao a tutti, non so se il problema è stato già posto, ma non ho il tempo di leggere 500 pagine di questa discussione!!!

Qualcuno ha esperienza in overclock delle 2900xt in crossfire?

Nemmeno con amd oc tool riesco a overclokkare, in effetti nemmeno la lettura delle frequenze mi sembra corretta, infatti la seconda scheda la vede a 507mhz anche in 3d.

Collegandi il connettore 8pin risolverei il problema??

Help please?

http://www.nordichardware.com/Guides/?skrivelse=516


...buona fortuna, ciao

×§ñåkê×
25-09-2007, 09:47
è arrivato il fatidico 25-09-2007 .... si sa ancora niente?


spero che nn sia questa la notizia....


http://www.tomshw.it/news.php?newsid=11451

non credo sia quella... suppongo sia questa

http://www.hwupgrade.it/news/cpu/una-black-edition-per-le-cpu-athlon-64-x2-5000+_22658.html

TecnoWorld8
25-09-2007, 09:54
se la notizia è quella, AMD si rivela davvero in difficoltà :(

safendi
25-09-2007, 09:55
non credo sia quella... suppongo sia questa

http://www.hwupgrade.it/news/cpu/una-black-edition-per-le-cpu-athlon-64-x2-5000+_22658.html

che delusione

×§ñåkê×
25-09-2007, 09:58
che delusione

già :(

safendi
25-09-2007, 10:00
già :(

te che hai un quad core, cambia molto rispetto a un core 2 duo? ero tentato dal q6600 g0, vale la pena?

FINE OT|

×§ñåkê×
25-09-2007, 10:04
te che hai un quad core, cambia molto rispetto a un core 2 duo? ero tentato dal q6600 g0, vale la pena?

FINE OT|

se è G0 vale la pena eccome, si overcloccano che è un piacere e scaldano pochissimo, cmq non è che sia fondamentale avere un quad oggi, nei giochi non noteresti niente di diverso se lo porti a pari frequenza del tuo attuale. se invece fai uso di programmi che sfruttano il quad allora hai un incremento quasi del 100%, cmq windows vista va un missile con 4 core ;)

mordsiger
25-09-2007, 10:09
non credo sia quella... suppongo sia questa

http://www.hwupgrade.it/news/cpu/una-black-edition-per-le-cpu-athlon-64-x2-5000+_22658.html

cos'è uno scherzo?

dovrà ancora venire fuori la news spero.... fanno ridere se la notizia è quella... poi sbloccato verso l'alto? boooo.....stanno ancora dietro agli athlon X2? ormai quelli sono morti e sepolti !!!

Pat77
25-09-2007, 10:10
Che notiziona da parte di AMD, se fosse quella del 5000+ sbloccato è un insulto all'intelligenza di tutti, notiziona sarebbe stata una 2900 a 0.65 versione ultra, anche se secondo me i problemi sono il sofware più che l'hw imho.

×§ñåkê×
25-09-2007, 10:16
cos'è uno scherzo?

dovrà ancora venire fuori la news spero.... fanno ridere se la notizia è quella... poi sbloccato verso l'alto? boooo.....stanno ancora dietro agli athlon X2? ormai quelli sono morti e sepolti !!!

non credo... la news è quella li :O

mtk
25-09-2007, 11:00
quel sito che vendeva la 2900pro a 277 l ha gia' ritoccata al rialzo di 30 euro...probabilmente hanno preso per buona come notiziona quella del procio e vogliono fare cassa con la pro :asd:

Athlon 64 3000+
25-09-2007, 11:02
se la notizia senzazionale è la presentazione di quel processore è una bella presa per il culo da parte di AMD.:mad:

Grave Digger
25-09-2007, 11:04
se la notizia senzazionale è la presentazione di quel processore è una bella presa per il culo da parte di AMD.:mad:

eppure dovrebbero saperlo che stanno perdendo clienti a vista d'occhio :boh: .....cmnq io ormai punto su penryn ed X38, AMD/ATI ha perso la mia fiducia :) ....

Pat77
25-09-2007, 11:04
se la notizia senzazionale è la presentazione di quel processore è una bella presa per il culo da parte di AMD.:mad:

Quoto, potevano evitare.

Lino P
25-09-2007, 11:14
mah..:rolleyes:

mordsiger
25-09-2007, 13:32
qualcuno ha messo il PCI-EX a più di 100Mhz?

si vedono miglioramenti o no?

ale0bello0pr
25-09-2007, 13:42
non credo... la news è quella li :O

più che BLACK CPU sarebbe una BLACK CIPPA e così INTEL potrà considerarsi padrone assoluta così compra Nvidia e vissero tutti INTELLINVIDIOSI e contenti :asd:

Catan
25-09-2007, 13:42
qualcuno ha messo il PCI-EX a più di 100Mhz?

si vedono miglioramenti o no?

mah guarda per esperienza mai ma sul forum dfi per la 680i e la icrx3200 consigliano per ottenere mi migliori risultati di oc per le vga di metterlo a tra i 110 e i 115.
visto che il pci-ex non è come l'agp che aumentando i mhz aumenta l'amperaggio dato alla vga aumenterebbe con l'aumento di clock solo la banda del pci-ex della vga.
ad esempio nvidia su mobo amd con sopra il 580i certifica alcune mobo che in configurazioen sli con 2 8800gts o sli si imposta in automatico la frequenza del pci-ex a 125mhz

mordsiger
25-09-2007, 13:46
mah guarda per esperienza mai ma sul forum dfi per la 680i e la icrx3200 consigliano per ottenere mi migliori risultati di oc per le vga di metterlo a tra i 110 e i 115.
visto che il pci-ex non è come l'agp che aumentando i mhz aumenta l'amperaggio dato alla vga aumenterebbe con l'aumento di clock solo la banda del pci-ex della vga.
ad esempio nvidia su mobo amd con sopra il 580i certifica alcune mobo che in configurazioen sli con 2 8800gts o sli si imposta in automatico la frequenza del pci-ex a 125mhz

io sono su p35...quindi proverò... però su altri forum avevo letto che andare sopra i 105mhz era una pazzia.... boooo

poi altra cosa...a me i 3dmark nn vanno... se metto nel collegamento "/nosysteminfo" allora vanno... però le ultime versioni che mi danno il risultato online nn me lo danno.
poi nella finestra principale del 3dmark ovviamente nn ci sono scritti i dati di systema (cpu, vga etc..)

perchè i 3dmark che vedo in giro vanno e hanno riconosciuto sia quad che 2900?

webbuffa
25-09-2007, 14:06
io sono su p35...quindi proverò... però su altri forum avevo letto che andare sopra i 105mhz era una pazzia.... boooo

poi altra cosa...a me i 3dmark nn vanno... se metto nel collegamento "/nosysteminfo" allora vanno... però le ultime versioni che mi danno il risultato online nn me lo danno.
poi nella finestra principale del 3dmark ovviamente nn ci sono scritti i dati di systema (cpu, vga etc..)

perchè i 3dmark che vedo in giro vanno e hanno riconosciuto sia quad che 2900?

:) Basta aggiornare la direcpll.dll

from here (http://web.tiscali.it/buffa87/update3dm06.zip)

mordsiger
25-09-2007, 14:07
:) Basta aggiornare la direcpll.dll

cioè? spiega

scusa ho visto dopo.... mille grazie !!!

webbuffa
25-09-2007, 14:09
cioè? spiega

scusa ho visto dopo.... mille grazie !!!

:D

Defragg
25-09-2007, 14:17
così INTEL potrà considerarsi padrone assoluta così compra Nvidia e vissero tutti INTELLINVIDIOSI e contenti :asd:
Spero che tu stia scherzando.

×§ñåkê×
25-09-2007, 14:20
mah guarda per esperienza mai ma sul forum dfi per la 680i e la icrx3200 consigliano per ottenere mi migliori risultati di oc per le vga di metterlo a tra i 110 e i 115.
visto che il pci-ex non è come l'agp che aumentando i mhz aumenta l'amperaggio dato alla vga aumenterebbe con l'aumento di clock solo la banda del pci-ex della vga.
ad esempio nvidia su mobo amd con sopra il 580i certifica alcune mobo che in configurazioen sli con 2 8800gts o sli si imposta in automatico la frequenza del pci-ex a 125mhz

a me non fa il boot se metto il pci-e a 101 MHz... non vedo come potrebbe farlo a 115 :p

giulio86
25-09-2007, 14:23
Raga qualcuno ha provato la sua 2900xt con la beta di crysis? come gira?..

Catan
25-09-2007, 14:31
a me non fa il boot se metto il pci-e a 101 MHz... non vedo come potrebbe farlo a 115 :p

boh la mia icfx3200 va tranquilla anche a 115.
se cerchi su amd con chipset 590 in sli con chipset nvidia setta il bus pci ex a 125mhz o cmq era una features molto publicizzata sulle mobo asus!
ed infatti cmq la striker è un 680i su intel quindi non so se il 680i si comporta come un 590 su amd.
la tecnologia si chiama linkboost ed era disponibile solo con le 7800gtx certificate che reggessere il bus a 125mhz
http://www.dinoxpc.com/Tests/CHIPSET/NVIDIA_nForce5/pag3.asp

anche se secondo me 125mhz è esasperato, personalmente io su icrx3200 sto a 100 ma come ti ho detto sul forum di dfi tra le impostazioni consigliate per oc sia per la mia mobo che per la 680i consigliano di settare il pci-ex a 110-115mhz

safendi
25-09-2007, 14:37
boh la mia icfx3200 va tranquilla anche a 115.
se cerchi su amd con chipset 590 in sli con chipset nvidia setta il bus pci ex a 125mhz o cmq era una features molto publicizzata sulle mobo asus!
ed infatti cmq la striker è un 680i su intel quindi non so se il 680i si comporta come un 590 su amd.
la tecnologia si chiama linkboost ed era disponibile solo con le 7800gtx certificate che reggessere il bus a 125mhz
http://www.dinoxpc.com/Tests/CHIPSET/NVIDIA_nForce5/pag3.asp

anche se secondo me 125mhz è esasperato, personalmente io su icrx3200 sto a 100 ma come ti ho detto sul forum di dfi tra le impostazioni consigliate per oc sia per la mia mobo che per la 680i consigliano di settare il pci-ex a 110-115mhz

e con la p5wdh cosa consigli?

Pat77
25-09-2007, 14:51
Raga qualcuno ha provato la sua 2900xt con la beta di crysis? come gira?..

Ho letto in giro sui 35 di media

;)

Casinaro
25-09-2007, 14:57
Ho letto in giro sui 35 di media

;)

a che risoluzione e dettagli??

-Feanor-
25-09-2007, 15:04
a che risoluzione e dettagli??

c'è il report di M4RI< che l'ha provato...
cerca qualche pag piu in dietro...;)


a proposito...hai provato il nuovo demo dx10 alla fine, M4RI<....??? :)

Nos89
25-09-2007, 15:29
e con la p5wdh cosa consigli?

di lasciare a default o rischi di bruciare il 975x....inoltre aumentare il bus si ha un aumento irrisorio circa 1% max:rolleyes:

Free Gordon
25-09-2007, 15:30
sicuramente avra' prestazioni discrete/buone ma dalla mia piccola esperienza con ati ho notato che i migliori benefici arrivano dall oc del core(non che le ram non contino ma da quello che vedo in misura minore) e anche se non ho la 2900xt mi e' sembrato di capire che il lavoro degli stream processor sia pesantemente influenzato dalla frequenza di lavoro del core...

Queste considerazioni valgono per tutte le VGA uscite fino ad oggi sulla faccia della terra.

150mhz in meno, sono più o meno lo stesso distacco che passa tra la 1900XTX e la 1900GT (senza considerare inoltre che quest'ultima non ha 48 shader unit ma ne ha 36..).

In pratica, l'unico problema è il prezzo. :D Come sempre.

Se la 2900PRO 512, costasse 250 euro, sarebbe una buona scheda, sopratutto in previsione futura, quando i motori grafici aumenteranno il carico sugli shader rispetto agli attuali.

ps. http://pclab.pl/art28806-4.html pare che in OC raggiunga la XT facilmente.

+Lonewolf+
25-09-2007, 15:37
eccomi di ritorno:)


situazione 7.10???

M4R1|<
25-09-2007, 15:38
c'è il report di M4RI< che l'ha provato...
cerca qualche pag piu in dietro...;)


a proposito...hai provato il nuovo demo dx10 alla fine, M4RI<....??? :)

se ti riferisci a "PT Boats Knights of the sea benchmark" si, cmq nn capisco se:
1 o la 2900/G80 nn ce la fa
2 o è ottimizzato male
3 driver

spero tnato che sia la 2 o la 3, perchè faccio pochi fps in più della GTX (li ho letti sul loro 3d ufficiale). cmq minimi 19 massiami 38 medi 28/30. a 1280x1024 con tutto al max. forse dopo faccio un po' di test per vedere quale massimo riesco ad andare in oc. però prima devo fare una cosa che nn voglio fare :cry: :cry:

va be cmq: il tuo nuovo pc? perchè nn l'hai ancora cambiato? ti si è rotta la macchinetta in cantina con le stampe da 100€? :D :D (ovviamente è retorico)

M4R1|<
25-09-2007, 15:39
eccomi di ritorno:)


situazione 7.10???

bho, faccio anch'io la stessa domanda

M4R1|<
25-09-2007, 15:40
Queste considerazioni valgono per tutte le VGA uscite fino ad oggi sulla faccia della terra.

150mhz in meno, sono più o meno lo stesso distacco che passa tra la 1900XTX e la 1900GT (senza considerare inoltre che quest'ultima non ha 48 shader unit ma ne ha 36..).

In pratica, l'unico problema è il prezzo. :D Come sempre.

Se la 2900PRO 512, costasse 250 euro, sarebbe una buona scheda, sopratutto in previsione futura, quando i motori grafici aumenteranno il carico sugli shader rispetto agli attuali.

ps. http://pclab.pl/art28806-4.html pare che in OC raggiunga la XT facilmente.

e pure che la superi, la cosa nn mi convince:confused:

edit: azzo nn me ne ero accorto: tra 2 messaggi ho fatto 1k di post, sono contento:)

dark.raziel.lok
25-09-2007, 15:53
OT: ma 3 messaggi consecutivi, marik, non sono troppi? :asd:


qualcuno ha provato con la 2900 world in conflinct? mi sa dire come si comporta?

-Feanor-
25-09-2007, 16:12
se ti riferisci a "PT Boats Knights of the sea benchmark" si, cmq nn capisco se:
1 o la 2900/G80 nn ce la fa
2 o è ottimizzato male
3 driver

spero tnato che sia la 2 o la 3, perchè faccio pochi fps in più della GTX (li ho letti sul loro 3d ufficiale). cmq minimi 19 massiami 38 medi 28/30. a 1280x1024 con tutto al max. forse dopo faccio un po' di test per vedere quale massimo riesco ad andare in oc. però prima devo fare una cosa che nn voglio fare :cry: :cry:

va be cmq: il tuo nuovo pc? perchè nn l'hai ancora cambiato? ti si è rotta la macchinetta in cantina con le stampe da 100€? :D :D (ovviamente è retorico)

anche se è retorica rispondo lo stesso..:O
si..anche se a dire il vero non c'è mai stata....:ciapet:...beh il fatto è che una volta volevo aspettare il taglio intel...poi vedere i comportamenti delle varie sk video nella demo di crysis...mo' mi sa che faccio prima ad aspettare direttametne la nuova generazione di gpu e cpu mi sa...:Prrr: :lamer:



cmq dalle immagini PT Boats KotS sembra veramente penoso come grafica...com'e in game..??

Catan
25-09-2007, 16:19
e con la p5wdh cosa consigli?

lascialo a default... al massimo prova a mettere un 110 e vedi se
1) ti boota
2) se la vga a default guadagna qualcosa
3) se la vga guadagna qualcosa in oc

safendi
25-09-2007, 16:21
lascialo a default... al massimo prova a mettere un 110 e vedi se
1) ti boota
2) se la vga a default guadagna qualcosa
3) se la vga guadagna qualcosa in oc

OK. grazie

mordsiger
25-09-2007, 16:22
si sta facendo sera ...... quindi mi sa che per oggi ci tocca tenerci le news che ci hanno dato.....:cry: :cry: :cry: :cry: :cry: :cry: :mad: :mad: :mad:

:muro: :muro:

:mc: :mc:

Iantikas
25-09-2007, 16:40
Queste considerazioni valgono per tutte le VGA uscite fino ad oggi sulla faccia della terra.

150mhz in meno, sono più o meno lo stesso distacco che passa tra la 1900XTX e la 1900GT (senza considerare inoltre che quest'ultima non ha 48 shader unit ma ne ha 36..).

In pratica, l'unico problema è il prezzo. :D Come sempre.

Se la 2900PRO 512, costasse 250 euro, sarebbe una buona scheda, sopratutto in previsione futura, quando i motori grafici aumenteranno il carico sugli shader rispetto agli attuali.

ps. http://pclab.pl/art28806-4.html pare che in OC raggiunga la XT facilmente.


http://www.tweaktown.com/reviews/1189/1/page_1_introduction/index.html

...alla rece linkata aggiungo quest'altra fresca fresca e molto + completa...

...anke qui l'hanno overclokkata giungendo a 760/1800 e pare quindi ke le PRO arriveranno + o - tutte intorno alle freq della XT (mentre le XT si spingono solitamente intorno agli 850mhz)...

...nn male come skeda ma solo se in italia la si riuscirà a trovare a buon prezzo come nel resto del mondo...a 307€ nn ne vale la pena dato ke bastano 30€ in + x prendersi una XT...ma se scende sui 240€ questa skeda sarebbe un affarone...

...parte delle coclusioni della rece:

The HD 2900 PRO is a power house and is simply going to be the card to own in this price bracket

This card is going to be extremely popular amongst users, the simple fact is that for the money there really is no better bang for buck and the current overclocking potential is beginning to look very positive. The card is actually that good that it forces the HD 2900 XT to lose some of its bang for buck due to just how close the PRO performs to the XT.


...ciao

M4R1|<
25-09-2007, 16:58
anche se è retorica rispondo lo stesso..:O
si..anche se a dire il vero non c'è mai stata....:ciapet:...beh il fatto è che una volta volevo aspettare il taglio intel...poi vedere i comportamenti delle varie sk video nella demo di crysis...mo' mi sa che faccio prima ad aspettare direttametne la nuova generazione di gpu e cpu mi sa...:Prrr: :lamer:



cmq dalle immagini PT Boats KotS sembra veramente penoso come grafica...com'e in game..??

identico se nn peggio ;)

edit: questo è il messaggio numero 1000

mordsiger
25-09-2007, 17:00
altra domandina su impostazioni del CCC

cosa voglio dire le voci che sono nell'api specific?

cioè
"Support DXT Texture Format"
"Alternate Pixel Center"
"Force 24bit Z-Buffer Depth"

triple buffer già lo so...

???????????????????

nella 2900 come bisogna settarle?

P.S.: mi ero scordato di elencare tra i benefici che ha portato l'ultima release di beta driver anche quello che gli scatti che faceva all'ingresso del 3dmark06 2° test e quello che faceva all'uscita del mostro marino dall'acqua sempre nel 3dmark06 nn li fa più !
che poi li scattini per intenderci li faceva anche quando giocavi ogni tanto...invece ora va liscia come l'olio.

webbuffa
25-09-2007, 17:06
altra domandina su impostazioni del CCC

cosa voglio dire le voci che sono nell'api specific?

cioè
"Support DXT Texture Format"
"Alternate Pixel Center"
"Force 24bit Z-Buffer Depth"

triple buffer già lo so...

???????????????????

nella 2900 come bisogna settarle?

P.S.: mi ero scordato di elencare tra i benefici che ha portato l'ultima release di beta driver anche quello che gli scatti che faceva all'ingresso del 3dmark06 2° test e quello che faceva all'uscita del mostro marino dall'acqua sempre nel 3dmark06 nn li fa più !
che poi li scattini per intenderci li faceva anche quando giocavi ogni tanto...invece ora va liscia come l'olio.

:) Eh infatti ... magari qualcuno che conosce bene tutte le impo potrebbe fare una mini guida :D ? grazie

+Lonewolf+
25-09-2007, 17:29
http://www.tweaktown.com/reviews/1189/1/page_1_introduction/index.html

...alla rece linkata aggiungo quest'altra fresca fresca e molto + completa...

...anke qui l'hanno overclokkata giungendo a 760/1800 e pare quindi ke le PRO arriveranno + o - tutte intorno alle freq della XT (mentre le XT si spingono solitamente intorno agli 850mhz)...

...nn male come skeda ma solo se in italia la si riuscirà a trovare a buon prezzo come nel resto del mondo...a 307€ nn ne vale la pena dato ke bastano 30€ in + x prendersi una XT...ma se scende sui 240€ questa skeda sarebbe un affarone...

...parte delle coclusioni della rece:






...ciao

quella rece è fantastica...ottimo lavoro ATI!

kimi91
25-09-2007, 17:43
anche secondo me la pro è un affarone, pero' solo al prezzo ufficiale, e cioe' 250 $

MaRtH
25-09-2007, 19:01
anche secondo me la pro è un affarone, pero' solo al prezzo ufficiale, e cioe' 250 $


Già... In fascia 8800GTS 320MB...

Se davvero il prezzo si assesterà sui 250€ sarà un affarone...:)

nico88desmo
25-09-2007, 20:06
Tecnologicamente parlando, una delusione, almeno secondo me.
Questa scheda prestazionalmente è pressochè alla pari con una scheda vecchia di 10 mesi.
I pro: prezzo (sperando che in Italia non aumenti come al solito) e memoria on-board.

Franx1508
25-09-2007, 20:24
Tecnologicamente parlando, una delusione, almeno secondo me.
Questa scheda prestazionalmente è pressochè alla pari con una scheda vecchia di 10 mesi.
I pro: prezzo (sperando che in Italia non aumenti come al solito) e memoria on-board.

stronzate.

nico88desmo
25-09-2007, 20:35
stronzate.

Non si può dire che sia un'ottima scheda.
Solo il prezzo è molto conveniente (sempre da verificare comunque).

appleroof
25-09-2007, 21:18
stronzate.

ecco cosa significa scrivere post costruttivi :rolleyes:

Farko63
25-09-2007, 21:32
Avevo scelto di prendere un coolmaster mystique 632 e vengo a scoprire che la 2900 non entra ...aiuto!!!
Consigliatemi un buon case please...

Baci

Lino P
25-09-2007, 21:34
come non entra? in lunghezza?

Farko63
25-09-2007, 22:12
Cosi dicono nel newsgroup:
http://www.hwupgrade.it/forum/showthread.php?t=1402678&page=3&highlight=cooler+master+mystique+632
del mystique .... per favore fate un elenco dei case dove la 2900 entra senza problemi: secondo me sara utile a molti...

Grazie per l'aiuto

Luigi

Lino P
25-09-2007, 22:25
non posso che consigliarti quello in signa, visti gli hd posti ortogonalmente, in lunghezza hai tutto lo spazio che vuoi...
Per tutto il resto che dire.. un capolavoro, quasi interamente free tool, professionale ed efficiente..
Le immagini dicono già tutto sulla qualità del prodotto...
http://www.chieftec.eu/index.php?option=com_content&task=view&id=21&Itemid=250
IL silver è 1 spettacolo...;)

TheDarkAngel
25-09-2007, 22:26
ecco cosa significa scrivere post costruttivi :rolleyes:

beh alla fine non si va molto lontani dalla verità, se l'importante non è il prezzo/prestazioni per una scheda di fascia media che altro c'è?

Lino P
25-09-2007, 22:28
vabbè quello direi che conta quasi sempre...

MonsterMash
25-09-2007, 23:51
http://www.tweaktown.com/reviews/1189/1/page_1_introduction/index.html

...alla rece linkata aggiungo quest'altra fresca fresca e molto + completa...

...anke qui l'hanno overclokkata giungendo a 760/1800 e pare quindi ke le PRO arriveranno + o - tutte intorno alle freq della XT (mentre le XT si spingono solitamente intorno agli 850mhz)...

...nn male come skeda ma solo se in italia la si riuscirà a trovare a buon prezzo come nel resto del mondo...a 307€ nn ne vale la pena dato ke bastano 30€ in + x prendersi una XT...ma se scende sui 240€ questa skeda sarebbe un affarone...



Niente male, non c'è che dire. A me interesserebbe anche sapere se i voltaggi della gpu sono gli stessi della xt. Perchè se fossero più bassi significherebbe che con un po' di overvolt si potrebbe arrivare, con ogni probabilità, a 850 mhz o giù di li' anche con le 2900pro.

Ciao

×§ñåkê×
26-09-2007, 08:12
Cosi dicono nel newsgroup:
http://www.hwupgrade.it/forum/showthread.php?t=1402678&page=3&highlight=cooler+master+mystique+632
del mystique .... per favore fate un elenco dei case dove la 2900 entra senza problemi: secondo me sara utile a molti...

Grazie per l'aiuto

Luigi

praticamente tutti i case dove entra una mobo atx, che in lunghezza la scheda è leggermente piu piccola della mobo atx, e poi come altezza tutti i case dove ci stanno i boboli dietro metallici che bisogna togliere per mettere schede pci, etc, xke anche in quel caso la scheda è di pochi millimetri piu alta del affare dove si aggancia

quinn
26-09-2007, 08:26
scusate ragazzi ma ho sentito che la HD 2950 pro e xt avranno PCi-E 2.0. Ma questo significa che sarà necessario cambiare scheda madre perchè non supportano l'attacco PCI-Express x 16 ? il 2.0 è un nuovo tipo di attacco ?

grazie

Foglia Morta
26-09-2007, 09:07
scusate ragazzi ma ho sentito che la HD 2950 pro e xt avranno PCi-E 2.0. Ma questo significa che sarà necessario cambiare scheda madre perchè non supportano l'attacco PCI-Express x 16 ? il 2.0 è un nuovo tipo di attacco ?

grazie

no andranno bene anche con il pci-e attuale

La PRO 1GB dovrebbe avere la gpu a 740Mhz di default

300$ , chissà se si riuscirà a vederla a sto prezzo

http://techreport.com/discussions.x/13267

After two of its partners broke the news prematurely, AMD has finally given the Radeon HD 2900 Pro an official introduction. The card is launching in 1GB and 512MB variants, which both feature 320 stream processors and a 512-bit memory bus. The 512MB model is clocked at 600MHz with 800MHz GDDR3 memory, and an AMD spokeswoman tells us the 1GB variant runs at 742MHz with 800MHz GDDR4 RAM.

For reference, AMD's Radeon HD 2900 XT is clocked at 742MHz and has 512MB of 825MHz DDR3, with the same 320 stream processor count and 512-bit memory bus width. The Radeon HD 2900 XT 1GB, meanwhile, has 1GB of 1000MHz GDDR4 memory.

AMD says the new Radeon HD 2900 Pro 512MB is launching at $249, and that the 1GB flavor is rolling out at a pricier $299. Of course, even $299 is considerably cheaper than even the most affordable Radeon HD 2900 XT listed on our price search engine, which still costs $383.99.

quinn
26-09-2007, 09:12
ma la 2900 pro, la 2950 pro e xt quando dovrebbero uscire ?

Foglia Morta
26-09-2007, 09:15
ma la 2900 pro, la 2950 pro e xt quando dovrebbero uscire ?

la 2900 pro è appena stata presentata. per le altre si parla di una data compresa tra metà novembre e inizio 2008

webbuffa
26-09-2007, 09:15
no andranno bene anche con il pci-e attuale

La PRO 1GB dovrebbe avere la gpu a 740Mhz di default

:) Impossiibile... altrimenti quale sarebbe la differenza tra 2900PRO 1gb e 2900XT 1gb :|? Nei bit :)?

Foglia Morta
26-09-2007, 09:19
:) Impossiibile... altrimenti quale sarebbe la differenza tra 2900PRO 1gb e 2900XT 1gb :|? Nei bit :)?

hanno detto che amd ha detto... tra un po si saprà :)

quinn
26-09-2007, 09:30
scusate sapete se c'è uno shop italiano su internet (o di un altro paese della comunità europea) dove poter comprare la radeon HD 2900 XT da 1 GB GDDR4 ? io l'ho trovata solo su siti americani.

webbuffa
26-09-2007, 09:34
scusate sapete se c'è uno shop italiano su internet (o di un altro paese della comunità europea) dove poter comprare la radeon HD 2900 XT da 1 GB GDDR4 ? io l'ho trovata solo su siti americani.

usa www.trovaprezzi.it

overjet
26-09-2007, 10:05
Magari non è il thread adatto, ma vorrei sentire un vostro parere riguardo le directx 10.
Volevo sapere se conviene acquistare una scheda video directx 10 se l'utente non ha intenzione di migrare a vista. Mi domando se sotto windows xp i giochi directx 10 eseguiti con schede video directx 10 abbiano qualche miglioramento grafico rispetto all'utilizzo dei suddetti con schede video directx 9, nonostante l'utilizzo del gioco avvenga su windows xp.

Inoltre volevo sapere se, essendo le ultime schede video dotate di tecnologia HD, esistono monitor HD ready e soprattutto giochi sviluppati in HD per poter sfruttare tale tecnologia.

Grazie.

×§ñåkê×
26-09-2007, 10:09
Magari non è il thread adatto, ma vorrei sentire un vostro parere riguardo le directx 10.
Volevo sapere se conviene acquistare una scheda video directx 10 se l'utente non ha intenzione di migrare a vista. Mi domando se sotto windows xp i giochi directx 10 eseguiti con schede video directx 10 abbiano qualche miglioramento grafico rispetto all'utilizzo dei suddetti con schede video directx 9, nonostante l'utilizzo del gioco avvenga su windows xp.

Inoltre volevo sapere se, essendo le ultime schede video dotate di tecnologia HD, esistono monitor HD ready e soprattutto giochi sviluppati in HD per poter sfruttare tale tecnologia.

Grazie.

per la prima parte, no, non hai nessun miglioramento

per la seconda... è ovvio che ci sono monitor hd ;)

-----------------

:p ma il primo post non doveva essere aggiornato?

mordsiger
26-09-2007, 10:24
scusate sapete se c'è uno shop italiano su internet (o di un altro paese della comunità europea) dove poter comprare la radeon HD 2900 XT da 1 GB GDDR4 ? io l'ho trovata solo su siti americani.

www.tecnocomputer.it

hanno la club3d

SenderoLuminoso
26-09-2007, 10:24
e pure che la superi, la cosa nn mi convince:confused:

edit: azzo nn me ne ero accorto: tra 2 messaggi ho fatto 1k di post, sono contento:)
Spammone ...:D

mordsiger
26-09-2007, 10:26
altra domandina su impostazioni del CCC

cosa voglio dire le voci che sono nell'api specific?

cioè
"Support DXT Texture Format"
"Alternate Pixel Center"
"Force 24bit Z-Buffer Depth"

triple buffer già lo so...

???????????????????

nella 2900 come bisogna settarle?

P.S.: mi ero scordato di elencare tra i benefici che ha portato l'ultima release di beta driver anche quello che gli scatti che faceva all'ingresso del 3dmark06 2° test e quello che faceva all'uscita del mostro marino dall'acqua sempre nel 3dmark06 nn li fa più !
che poi li scattini per intenderci li faceva anche quando giocavi ogni tanto...invece ora va liscia come l'olio.

scusate nessuno sa niente?

SenderoLuminoso
26-09-2007, 10:28
Tecnologicamente parlando, una delusione, almeno secondo me.
Questa scheda prestazionalmente è pressochè alla pari con una scheda vecchia di 10 mesi.
I pro: prezzo (sperando che in Italia non aumenti come al solito) e memoria on-board.

MA se non ce tecnologia piu' nuova adirittura sotto sfruttata. MAh

Iantikas
26-09-2007, 10:41
Niente male, non c'è che dire. A me interesserebbe anche sapere se i voltaggi della gpu sono gli stessi della xt. Perchè se fossero più bassi significherebbe che con un po' di overvolt si potrebbe arrivare, con ogni probabilità, a 850 mhz o giù di li' anche con le 2900pro.

Ciao


x adesso ancora nn si sa se quali siano le tensioni della PRO...cmq basandosi sulla rece ke ho linkato ieri la differenza d consumo in full load tra PRO e XT è d 45W...cosa ke mi fa pensare ke le tensioni siano le stesse...ciao

Iantikas
26-09-2007, 10:42
scusate nessuno sa niente?


http://www.tweakguides.com/ATICAT_1.html ...leggi questa guida...dove oltre alle cose ke hai appena kiesto trovi spiegato tutto ciò ke riguarda i CCC...ciao

mordsiger
26-09-2007, 10:43
Tecnologicamente parlando, una delusione, almeno secondo me.
Questa scheda prestazionalmente è pressochè alla pari con una scheda vecchia di 10 mesi.
I pro: prezzo (sperando che in Italia non aumenti come al solito) e memoria on-board.

ma scusate.... facciamo così: guardiamo i benchmark su giochi della 1950 appena venne fuori (sarebbe bello recuperarli) con i driver 6.xx (nn ricordo che versione c'era allora...cmq la 6.qualcosa) e guardiamola oggi con i 7.9....

nn potete dire che va uguale !!!!!!

secondo me l'architettura della 2900 ha bisogno di un pochettino di tempo per far si che venga sfruttata e ottimizzata a dovere... purtroppo come vediamo sempre i softweristi hanno tempi lunghi.
come in windows (xp ai tempi e vista oggi) buttano fuori una merda poi petchizzano pia pianino nel tempo.
come con i giochi, li tirano fuori bacati poi petchizano nel tempo.
così come la 2900... ormai erano già in superritardo nell'uscita e hanno buttato fuori dato che a livello HW la vga era pronta....poi pectchizzeranno nel tempo.....tra l'altro adesso a differenza della 1950 hanno da fare fatica doppia perchè devono tirare fuori driver per xp e anche per vista... DX9 e DX10...!!!!
vedremo la 2950 che sarà la stessa architettura migliorata (come dalla 1900 alla 1950)

overjet
26-09-2007, 10:46
per la prima parte, no, non hai nessun miglioramento

per la seconda... è ovvio che ci sono monitor hd ;)

-----------------

:p ma il primo post non doveva essere aggiornato?

Quindi per sfruttare tali schede è necessario avere il vista installato...
In quanto giocare con schede video dx10 e giochi dx10 però su windows xp non ne viene alcun beneficio delle nuove librerie...
Perfetto i monitor HD ci sono... Ma anche i giochi dovrebbero essere esviluppati in HD, giusto ?!? Ne esistono di titoli videoludici per pc in HD ?!?

mordsiger
26-09-2007, 10:51
http://www.tweakguides.com/ATICAT_1.html ...leggi questa guida...dove oltre alle cose ke hai appena kiesto trovi spiegato tutto ciò ke riguarda i CCC...ciao

grazie... ora è tutto chiaro...adesso proverò e vediamo come si comporta la 2900

×§ñåkê×
26-09-2007, 11:12
Quindi per sfruttare tali schede è necessario avere il vista installato...
In quanto giocare con schede video dx10 e giochi dx10 però su windows xp non ne viene alcun beneficio delle nuove librerie...
Perfetto i monitor HD ci sono... Ma anche i giochi dovrebbero essere esviluppati in HD, giusto ?!? Ne esistono di titoli videoludici per pc in HD ?!?

:mbe: nei giochi per pc si cambia la risoluzione...

overjet
26-09-2007, 11:38
Non ho capito, potresti spiegarmi, se possibile, tramite pm che non voglio inquinare il thread.

Grazie.

Nos89
26-09-2007, 12:09
Quindi per sfruttare tali schede è necessario avere il vista installato...
In quanto giocare con schede video dx10 e giochi dx10 però su windows xp non ne viene alcun beneficio delle nuove librerie...
Perfetto i monitor HD ci sono... Ma anche i giochi dovrebbero essere esviluppati in HD, giusto ?!? Ne esistono di titoli videoludici per pc in HD ?!?

è dal 1997 che gioco in HD con il computer a 1024x768:asd:....non ho ben capito la tua domanda..... ora cmq gioco a 1280x1024

mtk
26-09-2007, 12:15
quindi in full hd :D

Quoziente
26-09-2007, 13:12
Quindi per sfruttare tali schede è necessario avere il vista installato...
In quanto giocare con schede video dx10 e giochi dx10 però su windows xp non ne viene alcun beneficio delle nuove librerie...
Perfetto i monitor HD ci sono... Ma anche i giochi dovrebbero essere esviluppati in HD, giusto ?!? Ne esistono di titoli videoludici per pc in HD ?!?

Tu puoi anche avere una scheda Dx10 e un gioco che supporta le DX10 ma se sei sotto XP giochi in DX9.
Per quanto riguarda il discorso HD sei un tantino confuso... I vecchi televisori (quelli a tubo catodico) riuscivano ad arrivare ad una risoluzione massima di 800x600 (perlomeno il mio Samsung più di lì non andava) però con i canali tv tradizionali non c'erano problemi visto che anch'essi erano trasmessi in bassa definizione. Il problema sorgeva se avevi un televisore grande (ad esempio un 42") perché i programmi tradizionali risultavano "sfocati" data la bassa definizione del segnale video confrontata con l'ampia superficie di un 42".
Per ovviare al problema allora sono stati realizzati televisori capaci di supportare risoluzioni più alte in modo da mantenere una qualità dell'immagine ottima anche su grandi schermi; per beneficiare di questo però è necessario che anche il segnale del canale che arriva alla tua tv sia in alta definizione (per citare l'esempio di Sky abbiamo NextHD, SportHD, NationalGeoHD e CinemaHD). Se entriamo nel campo dei pc il discorso è diverso. I monitor sono anni che supportano risoluzioni "HD", quindi se tu hai un monitor (e una scheda video) che supportano queste risoluzioni sono già anni che giochi in "HD". Per questo nel campo PC non ha senso la definizione di HD...
Diverso è invece il discorso console: con una vecchia Playstation, dato che andava collegata alla tv, per i programmatori di giochi era sufficiente che il gioco andasse alla risoluzione di una tv (quindi max 800x600). Ora, con l'avvento dei televisori HD, anche le console hanno dovuto aduguarsi realizzando giochi che vanno anche a risoluzione di televisori HD... In questo campo quindi ha senso definire un gioco "HD"...
Spero di averti chiarito il dubbio...

Pat77
26-09-2007, 13:19
ma scusate.... facciamo così: guardiamo i benchmark su giochi della 1950 appena venne fuori (sarebbe bello recuperarli) con i driver 6.xx (nn ricordo che versione c'era allora...cmq la 6.qualcosa) e guardiamola oggi con i 7.9....

nn potete dire che va uguale !!!!!!

secondo me l'architettura della 2900 ha bisogno di un pochettino di tempo per far si che venga sfruttata e ottimizzata a dovere... purtroppo come vediamo sempre i softweristi hanno tempi lunghi.
come in windows (xp ai tempi e vista oggi) buttano fuori una merda poi petchizzano pia pianino nel tempo.
come con i giochi, li tirano fuori bacati poi petchizano nel tempo.
così come la 2900... ormai erano già in superritardo nell'uscita e hanno buttato fuori dato che a livello HW la vga era pronta....poi pectchizzeranno nel tempo.....tra l'altro adesso a differenza della 1950 hanno da fare fatica doppia perchè devono tirare fuori driver per xp e anche per vista... DX9 e DX10...!!!!
vedremo la 2950 che sarà la stessa architettura migliorata (come dalla 1900 alla 1950)

I driver sono fondamentali per questa architettura, basta vedere i passi avanti che fa ogni volta, nvidia ha scelto una strada più conservativa, i driver migliorano anche da parte loro, ma genericamente sono avanti come performance, quando l'ottimizzazione diventa specifica, invece, AMD spesso sta al livello della gtx.

mordsiger
26-09-2007, 14:02
I driver sono fondamentali per questa architettura, basta vedere i passi avanti che fa ogni volta, nvidia ha scelto una strada più conservativa, i driver migliorano anche da parte loro, ma genericamente sono avanti come performance, quando l'ottimizzazione diventa specifica, invece, AMD spesso sta al livello della gtx.

appunto....lasciamogli fare altri 3-4 driver poi secondo me le cose cominciano ad andare veramente alla grande !!!

IlNiubbo
26-09-2007, 14:34
Scusate dove posso trovare una bella recensione sulle 2900 sia da 512 che da 1GB. Grazie :)

StIwY
26-09-2007, 14:57
Ho letto da qualche parte che la X2900 va meglio se NON si installa il CCC.....che sembra frenare le prestazioni della scheda.

Nessuno sa niente al riguardo ? :stordita:

×§ñåkê×
26-09-2007, 15:03
Ho letto da qualche parte che la X2900 va meglio se NON si installa il CCC.....che sembra frenare le prestazioni della scheda.

Nessuno sa niente al riguardo ? :stordita:

mai sentita una cosa simile...

quinn
26-09-2007, 16:03
cos'è il CCC ?

scusate ma la HD 2900 XT 1 GB GDDR4 è paragonabile ad una GTX come prestazioni ?

questa scheda scalda più di una normale da 512 MB ?

ale0bello0pr
26-09-2007, 16:07
cos'è il CCC ?

scusate ma la HD 2900 XT 1 GB GDDR4 è paragonabile ad una GTX come prestazioni ?

questa scheda scalda più di una normale da 512 MB ?

CCC= Catalyst Control Center
non ti consiglio di andar a vedere su wikipedia perche' ti da tutto purche' quello che volevi sapere..:asd:

http://en.wikipedia.org/wiki/CCC

Pat77
26-09-2007, 16:10
appunto....lasciamogli fare altri 3-4 driver poi secondo me le cose cominciano ad andare veramente alla grande !!!

Non è nemmeno questo, driver specifici per applicazione, diciamo che difficilmente la hd2900xt si adatta di suo, in situazioni di driver non specifici le performance sono da gts. Ecco perchè è difficile collocarla.

Pk77

quinn
26-09-2007, 16:19
scusate ma queste directx 10.1 saranno compatibili solo con le nuove schede oppure potranno essere usate anche dalle schede directx10. Se non fosse così sarebbe una minchiata e sarebbe inutile acquistare schede fino all'uscita delle 10.1.......

ale0bello0pr
26-09-2007, 16:26
scusate ma queste directx 10.1 saranno compatibili solo con le nuove schede oppure potranno essere usate anche dalle schede directx10. Se non fosse così sarebbe una minchiata e sarebbe inutile acquistare schede fino all'uscita delle 10.1.......

niente modifiche da dx 10 a dx 10.1

Pat77
26-09-2007, 16:35
scusate ma queste directx 10.1 saranno compatibili solo con le nuove schede oppure potranno essere usate anche dalle schede directx10. Se non fosse così sarebbe una minchiata e sarebbe inutile acquistare schede fino all'uscita delle 10.1.......

Ovviamente no, dx 10.1 è una specifica che probabilemnte introdurà maggiori registri e la TU obbligatoria.

mordsiger
26-09-2007, 16:41
Non è nemmeno questo, driver specifici per applicazione, diciamo che difficilmente la hd2900xt si adatta di suo, in situazioni di driver non specifici le performance sono da gts. Ecco perchè è difficile collocarla.

Pk77

scusa ma nn ho capito il concetto

Pat77
26-09-2007, 16:47
scusa ma nn ho capito il concetto

Il concetto è che per questioni architetturali e di continuità i programmatori preferiscono programmare su gpu nvidia, AMD avendo gpu presentate in ritardo e più innovative deve seguire l'ottimizzazione via driver per ottenere performance migliori e convincenti, un driver generico, senza profili specifici e senza ottimizzazioni mirate vedrebbe, probabilmente, hd2900 a inseguire sempre.
Inoltre punta molto sugli shaders piuttosto che su rops e tmu e per avere risultati dal parallelismo interno dei suoi sp bisogna lavorarci di più.

Pat77
26-09-2007, 16:49
Di contro in titoli shaders intensive, tipo rainbow six, si comporta egregiamente.

mtk
26-09-2007, 17:04
ipotizzando di aver trovato una 8800gtx nuova a 350 euro,converrebbe acquistarla anche se stanno per uscire le dx10.1?o meglio la 2900xt?

mordsiger
26-09-2007, 17:06
Il concetto è che per questioni architetturali e di continuità i programmatori preferiscono programmare su gpu nvidia, AMD avendo gpu presentate in ritardo e più innovative deve seguire l'ottimizzazione via driver per ottenere performance migliori e convincenti, un driver generico, senza profili specifici e senza ottimizzazioni mirate vedrebbe, probabilmente, hd2900 a inseguire sempre.
Inoltre punta molto sugli shaders piuttosto che su rops e tmu e per avere risultati dal parallelismo interno dei suoi sp bisogna lavorarci di più.

si adesso ci sono... capito... in effetti è vero parecchi giochi di adesso al caricamento presentano un mini trailer di nvidia !!!

halduemilauno
26-09-2007, 18:06
ipotizzando di aver trovato una 8800gtx nuova a 350 euro,converrebbe acquistarla anche se stanno per uscire le dx10.1?o meglio la 2900xt?

sicuro gtx? se si tranne la ultra niente è meglio di una gtx poi a quel prezzo.
;)

M4R1|<
26-09-2007, 18:21
scusa un'informazione a voi vi funza in rivatunner la modalità che modifica il rapporto temperatura/rpm vetola?

a me andave a adesso no

IlNiubbo
26-09-2007, 18:32
Scusate dove posso trovare una bella recensione sulle 2900 sia da 512 che da 1GB. Grazie :)

Scusate ma è una domanda così idiota da non meritare neanche mezza risposta? su hwupgrade non ho trovato articoli su quella da 1GB solo news. e invece vorrei vedere fps sui vari giochi magari paragonata alla gtx... è possibile?

belin
26-09-2007, 18:40
niente modifiche da dx 10 a dx 10.1

...non è esatto. Come ho scritto in un altro thread:

scheda Dx10 --> librerie Dx10 , Shader Model 4.0 , Windows Driver Display Model 2.0
scheda Dx10.1 --> librerie Dx10.1 , Shader Model 4.1 , Windows Driver Display Model 2.1

Le Dx10.1 dovrebbero avere queste migliorie:

Miglior accesso alle risorse shader (quando si leggono i campioni ottenuti da un AA multisample)
Nuove funzionalità per il blending in virgola mobile
Miglioramenti alle possibilità di filtrare le ombre all'interno delle API
Prestazioni più elevate per i sistemi multi-core
Sarà ridotto il numero delle chiamate alle API con la riduzione del rendering della riflessione e della rifrazione
Caratteristica cube-mapping migliorata
Introduzione del filtro in virgola mobile a 32-bit rispetto a quello a 16-bit (utile per l'HDR)
Controllo dell'applicazioni sulla pixel coverage mask
AA non inferiore a 4x
Migliore supporto alla tecnica Tesselation

Le SDK DX10.1 sono disponibili sul sito Microsoft a questo indirizzo: DirectX Software Development Kit (http://www.microsoft.com/downloads/details.aspx?FamilyID=529f03be-1339-48c4-bd5a-8506e5acf571&DisplayLang=en&displaylang=en).
Per poterle installare nel proprio sistema è richiesta la presenza del Service Pack 1 beta di Windows Vista quando sarà ufficialmente rilasciato.
Le nuove librerie potrebbero essere emulate via software dalle vga DX10, ma non c'è nulla di definitivo.


:)

mtk
26-09-2007, 18:44
sicuro gtx? se si tranne la ultra niente è meglio di una gtx poi a quel prezzo.
;)

direi sicuro si...l ho appena ordinata...gf8800gtx point of view

belin
26-09-2007, 18:49
direi sicuro si...l ho appena ordinata...gf8800gtx point of view

...a quel prezzo ottimo acquisto. senza dubbio.

:)

mtk
26-09-2007, 18:59
...a quel prezzo ottimo acquisto. senza dubbio.

:)

speriamo che lo sia,anche se avrei voluto restare in casa ati per questo acquisto....sara' per la prossima xt :D

M4R1|<
26-09-2007, 19:07
...non è esatto. Come ho scritto in un altro thread:

scheda Dx10 --> librerie Dx10 , Shader Model 4.0 , Windows Driver Display Model 2.0
scheda Dx10.1 --> librerie Dx10.1 , Shader Model 4.1 , Windows Driver Display Model 2.1

Le Dx10.1 dovrebbero avere queste migliorie:

Miglior accesso alle risorse shader (quando si leggono i campioni ottenuti da un AA multisample)
Nuove funzionalità per il blending in virgola mobile
Miglioramenti alle possibilità di filtrare le ombre all'interno delle API
Prestazioni più elevate per i sistemi multi-core
Sarà ridotto il numero delle chiamate alle API con la riduzione del rendering della riflessione e della rifrazione
Caratteristica cube-mapping migliorata
Introduzione del filtro in virgola mobile a 32-bit rispetto a quello a 16-bit (utile per l'HDR)
Controllo dell'applicazioni sulla pixel coverage mask
AA non inferiore a 4x
Migliore supporto alla tecnica Tesselation

Le SDK DX10.1 sono disponibili sul sito Microsoft a questo indirizzo: DirectX Software Development Kit (http://www.microsoft.com/downloads/details.aspx?FamilyID=529f03be-1339-48c4-bd5a-8506e5acf571&DisplayLang=en&displaylang=en).
Per poterle installare nel proprio sistema è richiesta la presenza del Service Pack 1 beta di Windows Vista quando sarà ufficialmente rilasciato.
Le nuove librerie potrebbero essere emulate via software dalle vga DX10, ma non c'è nulla di definitivo.


:)

allora io sapevo che le dx10.1 erano identiche alla dx10 solo che apportavano numerose migliorie, e ottimizzazioni, ma l'hardware attuale, quale R600 e G80 erano pienamente in grado di supportarlo

EvIL-LIFe
26-09-2007, 19:16
Scusate ma è una domanda così idiota da non meritare neanche mezza risposta? su hwupgrade non ho trovato articoli su quella da 1GB solo news. e invece vorrei vedere fps sui vari giochi magari paragonata alla gtx... è possibile?

basta che vai qualche pagina dietro e leggerai che sono praticamente allineate come prestazioni. la versione da 1gb sarà necessaria solo quando i 512mb non basteranno più... ed è ancora presto.

ale0bello0pr
26-09-2007, 19:17
...non è esatto. Come ho scritto in un altro thread:

scheda Dx10 --> librerie Dx10 , Shader Model 4.0 , Windows Driver Display Model 2.0
scheda Dx10.1 --> librerie Dx10.1 , Shader Model 4.1 , Windows Driver Display Model 2.1

Le Dx10.1 dovrebbero avere queste migliorie:

Miglior accesso alle risorse shader (quando si leggono i campioni ottenuti da un AA multisample)
Nuove funzionalità per il blending in virgola mobile
Miglioramenti alle possibilità di filtrare le ombre all'interno delle API
Prestazioni più elevate per i sistemi multi-core
Sarà ridotto il numero delle chiamate alle API con la riduzione del rendering della riflessione e della rifrazione
Caratteristica cube-mapping migliorata
Introduzione del filtro in virgola mobile a 32-bit rispetto a quello a 16-bit (utile per l'HDR)
Controllo dell'applicazioni sulla pixel coverage mask
AA non inferiore a 4x
Migliore supporto alla tecnica Tesselation

Le SDK DX10.1 sono disponibili sul sito Microsoft a questo indirizzo: DirectX Software Development Kit (http://www.microsoft.com/downloads/details.aspx?FamilyID=529f03be-1339-48c4-bd5a-8506e5acf571&DisplayLang=en&displaylang=en).
Per poterle installare nel proprio sistema è richiesta la presenza del Service Pack 1 beta di Windows Vista quando sarà ufficialmente rilasciato.
Le nuove librerie potrebbero essere emulate via software dalle vga DX10, ma non c'è nulla di definitivo.


:)

mis-understanding ;)
da dx 10 a dx 10.1 voleva significare appunto... se hai dx 10...la tua scheda non diventerà dx10.1 eccetto novità via software tutt'ora sconosciute..
quoto tutto ovviamente :)

Iantikas
26-09-2007, 19:19
appunto....lasciamogli fare altri 3-4 driver poi secondo me le cose cominciano ad andare veramente alla grande !!!

nn credo succederanno miracoli (tipo sorpasso GTX)...anke tra 3/4 nuove versioni d driver...ci sarà (come già ora) qualke titolo in cui andrà uguale o anke un filino meglio ma in generale la GTX è una skeda + performante grazie alle potenzialità d gran lunga superiori nelle operazioni con le texture e d poco inferiori nelle operazioni con gli shader (lieve inferiorità nelle operazioni con gli shader ke vien oltretutto smorzata anke dal fatto ke x la GTX è + facile lavorare al max delle sue potenzialità rispetto alla XT)...nn x niente infatti costa 100€ in +...

...io spero ke x fine anno escano i refresh d'entrambe le arkitetture x poi valutare cosa fare anke in base a come fino ad allora si sarà comportata la XT...certo ke se dovessi cambiarla x un'ipotetica HD2950XT(X) dovrebbe avere rispetto alla XT il doppio delle RBE (e quindi delle unità in esse presenti) e una freq del core d'almeno 900mhz unita ad un consumo nn superiore a quello attuale...

...ciao

Iantikas
26-09-2007, 19:22
allora io sapevo che le dx10.1 erano identiche alla dx10 solo che apportavano numerose migliorie, e ottimizzazioni, ma l'hardware attuale, quale R600 e G80 erano pienamente in grado di supportarlo


no nn sono compatibli...questa al momento è una certezza...si parla d'emulazione SW possibile x alcune delle nuove funzionalità presentinelle DX10.1 ma queste son solo voci...

...cmq nn mi preoccuperei + di tanto dato ke gioki ke sfrutteranno le DX10.1 nn sono neanke stati annunciati...quindi ci vorrà ancora un bel pò finkè verranno prodotti...ciao

ale0bello0pr
26-09-2007, 19:22
no nn sono compatibli...questa al momento è una certezza...si parla d'emulazione SW possibile x alcune delle nuove funzionalità presentinelle DX10.1 ma queste son solo voci...

...cmq nn mi preoccuperei + di tanto dato ke gioki ke sfrutteranno le DX10.1 nn sono neanke stati annunciati...quindi ci vorrà ancora un bel pò finkè verranno prodotti...ciao

si uno si..ma non lo nomino....fino all'uscita della sua demo.:muro:

M4R1|<
26-09-2007, 19:38
no nn sono compatibli...questa al momento è una certezza...si parla d'emulazione SW possibile x alcune delle nuove funzionalità presentinelle DX10.1 ma queste son solo voci...

...cmq nn mi preoccuperei + di tanto dato ke gioki ke sfrutteranno le DX10.1 nn sono neanke stati annunciati...quindi ci vorrà ancora un bel pò finkè verranno prodotti...ciao

be allora l'architettura DX10 è disponibile dal novembre 2006, fin'ora troppi pochi giochi hanno le dx10, o cmq pochi arriveranno con le 10, quindi in un futuro nn tanto lontano credo che convenga fare il passaggio direttamente alla dx10.1

M4R1|<
26-09-2007, 19:40
si uno si..ma non lo nomino....fino all'uscita della sua demo.:muro:

a ti riferisci a quel titolo di nome crysis ? :D ma no davverto hanno rimandato la demo, che peccato :D :sofico: :cry: (l'ultima gif esperima il mio stato d'animo in questo contesto)

ale0bello0pr
26-09-2007, 19:41
be allora l'architettura DX10 è disponibile dal novembre 2006, fin'ora troppi pochi giochi hanno le dx10, o cmq pochi arriveranno con le 10, quindi in un futuro nn tanto lontano credo che convenga fare il passaggio direttamente alla dx10.1

sempre che non siano uscite le DX11.. :asd:http://gaming.ngi.it/forum/images/ngismiles/asd2.gif

TecnoWorld8
26-09-2007, 20:50
non mi è chiaro se la PRO avrà la memoria a 256bit o a 512bit...lo si sa?

Mister Tarpone
26-09-2007, 20:57
non mi è chiaro se la PRO avrà la memoria a 256bit o a 512bit...lo si sa?

la pro @ 512bit... mentre la 2900GT @ 256bit ;)

M4R1|<
26-09-2007, 20:58
sempre che non siano uscite le DX11.. :asd:http://gaming.ngi.it/forum/images/ngismiles/asd2.gif

be nn credo.

Cmq Ragazzi ditemi se vi piace la home del 3d?

Catan
26-09-2007, 21:28
...io spero ke x fine anno escano i refresh d'entrambe le arkitetture x poi valutare cosa fare anke in base a come fino ad allora si sarà comportata la XT...certo ke se dovessi cambiarla x un'ipotetica HD2950XT(X) dovrebbe avere rispetto alla XT il doppio delle RBE (e quindi delle unità in esse presenti) e una freq del core d'almeno 900mhz unita ad un consumo nn superiore a quello attuale...

...ciao


ma guarda secondo me ci starebbe bene anche un refresh simil x1800-x1900 con un aumento delle unità e un clock frequences simile...
secondo me basterebbe sistemare poche cose interne ad esempio ritornare al rapporto 3:1 shader:rbe che secondo ati in x1900 era un rapporto ottimale.
gia un refresh con 24 rop's e un aumento minimo di shader che so da 320 a 360 per rimanere in rapporto 3:1 e un clock sempre da 750-800mhz sarebbe ottimale e performante senza stravolgere troppo il progetto originale.

M4R1|<
26-09-2007, 21:34
ma guarda secondo me ci starebbe bene anche un refresh simil x1800-x1900 con un aumento delle unità e un clock frequences simile...
secondo me basterebbe sistemare poche cose interne ad esempio ritornare al rapporto 3:1 shader:rbe che secondo ati in x1900 era un rapporto ottimale.
gia un refresh con 24 rop's e un aumento minimo di shader che so da 320 a 360 per rimanere in rapporto 3:1 e un clock sempre da 750-800mhz sarebbe ottimale e performante senza stravolgere troppo il progetto originale.

be però ci sono due problemi:
1) amd avrà intenzione di farlo?
2) varrà la pena? nn fraintendere, sul lato prestazionale ovvio che si (azni) però a livello di costi di produttivi, ottimizzazione (dell'architettura, perchè nn si può dire ci mettiamo più shader e rop's così, bisogna progettare), e progettazione/programmazione driver.

Catan
26-09-2007, 21:42
be però ci sono due problemi:
1) amd avrà intenzione di farlo?
2) varrà la pena? nn fraintendere, sul lato prestazionale ovvio che si (azni) però a livello di costi di produttivi, ottimizzazione (dell'architettura, perchè nn si può dire ci mettiamo più shader e rop's così, bisogna progettare), e progettazione/programmazione driver.

se amd ha intentzione di fare r680 lo farà.
se no potrebbero essere ottime spec anche x r700;)


+ che altro volevo anche fugare qualche dubbio sulle dx10.1 per ora ed ad oggi di sicuro è che introdurranno la tessallation dell'immagine ed l'obbligatorietà di inserire aa4x nei giochi gia di motore(cosi facendo in linea teorica se fossi un programmatore converebbe molto di + farlo via shader che in altre maniere) ergo sono 2 features che gia ad oggi r600 supporta.

M4R1|<
26-09-2007, 21:50
se amd ha intentzione di fare r680 lo farà.
se no potrebbero essere ottime spec anche x r700;)


+ che altro volevo anche fugare qualche dubbio sulle dx10.1 per ora ed ad oggi di sicuro è che introdurranno la tessallation dell'immagine ed l'obbligatorietà di inserire aa4x nei giochi gia di motore(cosi facendo in linea teorica se fossi un programmatore converebbe molto di + farlo via shader che in altre maniere) ergo sono 2 features che gia ad oggi r600 supporta.

ma guarda sono io il primo ad esserne contento, però queste specifiche ati nn le poteve lasciare a R700? cioè attualmente R600 è un'ottima GPU, ma in futuro nn si sa, magari si comporterà benissimo, e se invece nn lo sarà?

be certo poi è un altro discorso dire che ati ha messo queste cose in R600 e così in R700 saprà esattamente come comportarsi

Mister Tarpone
26-09-2007, 21:50
quindi r600 è compatibile con le dx10.1??? :confused: :confused: :confused:
ma non credo... al max sarà più un dx10.05 :asd:

Lino P
26-09-2007, 22:38
:asd:

TecnoWorld8
27-09-2007, 00:06
se AMD si sbriga a mettere sul mercato una nuova generazione riveduta e corretta, potrà uscirne bene; se invece ritarda troppo, non so, dato che il titolo in borsa sta andando sotto terra :(

Catan
27-09-2007, 06:25
quindi r600 è compatibile con le dx10.1??? :confused: :confused: :confused:
ma non credo... al max sarà più un dx10.05 :asd:

+ che compatibile con dx10.1 sembra che ad oggi con le indiscrezioni trapelate delle feature di dx10.1 e dx10 r600 sembra compatibile.
nsomma aa4x in shader lo fà e con dx10.1 diventerà obbligatorio un aa4x in game già nel motore(e non vedo come si possa fare se nn in shader), la tassellation la fà ora tocca vedere se verrà implementata qualche altra cosa che r600 non sa fare ma per ora r600 è pienamente compatibile come dx10.1

sulle 8800 non saprei sicuramente aa via shader lo fanno ma nn so(pecca mia ma prometto che mi informo) se possono eseguire una tassalation dell'immagine come fà r600 e come richiesto dalle dx10.1

GunnyITA
27-09-2007, 09:23
Qualcuno ha manifestato gli stessi sintomi che ho io postati a questo link?

(giochi provati: MEDIEVAL 2 total war, compani of heroes).

http://www.hwupgrade.it/forum/showthread.php?p=18888992#post18888992

mordsiger
27-09-2007, 09:43
nn credo succederanno miracoli (tipo sorpasso GTX)...anke tra 3/4 nuove versioni d driver...ci sarà (come già ora) qualke titolo in cui andrà uguale o anke un filino meglio ma in generale la GTX è una skeda + performante grazie alle potenzialità d gran lunga superiori nelle operazioni con le texture e d poco inferiori nelle operazioni con gli shader (lieve inferiorità nelle operazioni con gli shader ke vien oltretutto smorzata anke dal fatto ke x la GTX è + facile lavorare al max delle sue potenzialità rispetto alla XT)...nn x niente infatti costa 100€ in +...

...io spero ke x fine anno escano i refresh d'entrambe le arkitetture x poi valutare cosa fare anke in base a come fino ad allora si sarà comportata la XT...certo ke se dovessi cambiarla x un'ipotetica HD2950XT(X) dovrebbe avere rispetto alla XT il doppio delle RBE (e quindi delle unità in esse presenti) e una freq del core d'almeno 900mhz unita ad un consumo nn superiore a quello attuale...

...ciao

miracoli no....c'era solo uno che li sapeva fare e l'hanno messo in croce....:D quindi.....

però secondo me può darsi che vada pareggiandosi con la gtx !!

poi come è sempre stato da sempre ci sono giochi in cui la spunta nvidia e altri in qui la spunta ati.... ma quello è normale !!

Soulbringer
27-09-2007, 09:55
Qualcuno ha manifestato gli stessi sintomi che ho io postati a questo link?

(giochi provati: MEDIEVAL 2 total war, compani of heroes).

http://www.hwupgrade.it/forum/showthread.php?p=18888992#post18888992

Prova a formattare!;)

GunnyITA
27-09-2007, 09:57
Prova a formattare!;)

bhe si guarda, fresco di 3 mesi tu formatti, addirittura mancano 5-6 robette da installare. Se ho problemi al pc sei il "Primo" a cui lo porterei. :-P

Soulbringer
27-09-2007, 09:59
bhe si guarda, fresco di 3 mesi tu formatti, addirittura mancano 5-6 robette da installare. Se ho problemi al pc sei il "Primo" a cui lo porterei. :-P

Allora aspetta che magari lo spirito santo venga a risolverti i problemi...capirati cosa ci vuole a formattare

Pat77
27-09-2007, 10:01
+ che compatibile con dx10.1 sembra che ad oggi con le indiscrezioni trapelate delle feature di dx10.1 e dx10 r600 sembra compatibile.
nsomma aa4x in shader lo fà e con dx10.1 diventerà obbligatorio un aa4x in game già nel motore(e non vedo come si possa fare se nn in shader), la tassellation la fà ora tocca vedere se verrà implementata qualche altra cosa che r600 non sa fare ma per ora r600 è pienamente compatibile come dx10.1

sulle 8800 non saprei sicuramente aa via shader lo fanno ma nn so(pecca mia ma prometto che mi informo) se possono eseguire una tassalation dell'immagine come fà r600 e come richiesto dalle dx10.1

Se già il passaggio da dx9 a dx10 è stato molto limitato come vantaggi visivi concreti, chissà tra dx10 e dx10.1, in bundle nelle schede che fanno, ci mettono la lente al posto dei giochi?

Catan
27-09-2007, 10:12
Se già il passaggio da dx9 a dx10 è stato molto limitato come vantaggi visivi concreti, chissà tra dx10 e dx10.1, in bundle nelle schede che fanno, ci mettono la lente al posto dei giochi?

si infatti mentre le dx10 rispetto alle dx9 portavano vantaggi nella gestione dello shadermodel e dell'overflow delle dx(fondamentalmente gestione dell'over poi già che c'erano hanno messo anche lo sm4.0)
e gia i primi risultati si sono cmq visti visto che l'acqua e le particelle sono notevoltemente migliorate rispetto alle dx9(le ombre invece mi sembrano ancora eguali)
nelle dx10.1 non hanno aggiunto ne tolto nulla per ora hanno solo reso obbligatorio che le vga sappiano fare certe cose(la tassellation) e che i giochi per essere dichiarati dx10.1 debbano supportare l'aa4x gia nel motore del gioco.
sicuramente è un cambiamento meno indolore rispetto a quello che ci fù tra le dx9.0b e le dx9.0c

Pat77
27-09-2007, 10:15
si infatti mentre le dx10 rispetto alle dx9 portavano vantaggi nella gestione dello shadermodel e dell'overflow delle dx(fondamentalmente gestione dell'over poi già che c'erano hanno messo anche lo sm4.0)
e gia i primi risultati si sono cmq visti visto che l'acqua e le particelle sono notevoltemente migliorate rispetto alle dx9(le ombre invece mi sembrano ancora eguali)
nelle dx10.1 non hanno aggiunto ne tolto nulla per ora hanno solo reso obbligatorio che le vga sappiano fare certe cose(la tassellation) e che i giochi per essere dichiarati dx10.1 debbano supportare l'aa4x gia nel motore del gioco.
sicuramente è un cambiamento meno indolore rispetto a quello che ci fù tra le dx9.0b e le dx9.0c

Personalmente, tra dx7 e dx 8 ci fu un abisso, tra dx8 e dx9, le differenze sono state significative, almeno per ora tra dx9 e dx10 non vedo tutto questo divario, ma solo piccoli dettagli e affinamenti.

overjet
27-09-2007, 10:15
Scusatemi... Ma voi che avete questa schedozza... Utilizzate tutti il vista ?!?

Soulbringer
27-09-2007, 10:17
Scusatemi... Ma voi che avete questa schedozza... Utilizzate tutti il vista ?!?

Sono passato a vista solo pochi mesi dopo che ho preso la scheda.. Per me con l'arrivo dei primi titoli dx10 la curiosità ha vinto!:)

overjet
27-09-2007, 10:19
Anche perchè, acquistare questa scheda, senza passare a vista e quindi non sfruttare le dx10, che senso ha ?!? Qualcuno ci stà giocando su xp ?!?

mordsiger
27-09-2007, 10:19
Scusatemi... Ma voi che avete questa schedozza... Utilizzate tutti il vista ?!?

io uso rigorosamente xp...almeno fino all'uscita di vista SP1

overjet
27-09-2007, 10:20
E quindi non sfrutti le dx 10 ?!?

mordsiger
27-09-2007, 10:21
Anche perchè, acquistare questa scheda, senza passare a vista e quindi non sfruttare le dx10, che senso ha ?!? Qualcuno ci stà giocando su xp ?!?

per adesso io nn gioco a nulla di dx10.... quindi rimango su xp...quando uscira qualcosa di dx10 che mi piacerà passerò forzatamente a vista no?

nella fattispece "The Witcher"

mordsiger
27-09-2007, 10:22
E quindi non sfrutti le dx 10 ?!?

io gioco a nwn2 che è un dx9... se lo metto su vista mica si converte il gioco in dx10.... quindi è la stessa cosa !!!

overjet
27-09-2007, 10:23
Ok, penso che sarà la scelta che adotterò anche io... Il sp1 di vista dovrebbe uscire a Gennaio 2008 se non sbaglio...

Quoziente
27-09-2007, 10:24
Scusatemi... Ma voi che avete questa schedozza... Utilizzate tutti il vista ?!?

Io per non far torto a nessuno ho sia Vista che Xp... i giochi DX9 li installo sotto XP, gli ultimi, che supportano DX10 li installo sotto Vista...
Cmq anch'io sono passato a Vista principalmente per le DX10...

overjet
27-09-2007, 10:25
Anche perchè correggetemi se sbaglio... Ma comprare una scheda dx10, peraltro a 350 euro, e non sfruttarla per l'innovazione che principalmente a evidenziato la suddetta, mi sembra un controsenso... Effettivamente il dual boot mi sembra la miglior soluzione.

mordsiger
27-09-2007, 10:25
Ok, penso che sarà la scelta che adotterò anche io... Il sp1 di vista dovrebbe uscire a Gennaio 2008 se non sbaglio...

penso di si.... già adesso cmq è abbastanza migliorato rispetto all'inizio....ogni tanto lo provo.... però aspetto l'sp1 cmq...migliorano molto le prestazioni a quanto dicono !!1

Catan
27-09-2007, 10:32
Personalmente, tra dx7 e dx 8 ci fu un abisso, tra dx8 e dx9, le differenze sono state significative, almeno per ora tra dx9 e dx10 non vedo tutto questo divario, ma solo piccoli dettagli e affinamenti.

diciamo che tutte le succose novità sono nella gestione dei dati e delle chimate che non negli effetti grafici.
e poi io mi ricordo che all'uscita delle dx9 quando presi una 9700liscia della sapphire giochi dx9 che all'uscita si discostassero in maniera significativa da quelli fatti in dx8.1 non en ricordo.
come sempre per vederle sfruttate toccherà aspettare almeno altri 6 mesi e per vederle utilizzate appieno dovremmo aspettare altri 12 mesi

Iantikas
27-09-2007, 12:11
Anche perchè correggetemi se sbaglio... Ma comprare una scheda dx10, peraltro a 350 euro, e non sfruttarla per l'innovazione che principalmente a evidenziato la suddetta, mi sembra un controsenso... Effettivamente il dual boot mi sembra la miglior soluzione.


le vga DX10 nn portano come unico beneficio la compatibilità con le nuove librerie...ma sono anke le skede + veloci in DX9 attualmente in commercio...quindi usarle in XP nn'è x niente riduttivo dato ke se vuoi un certo livello di prestazioni (anke solo x gioki DX9) son cmq l'unica scelta disponibile...ciao

-Feanor-
27-09-2007, 14:33
per adesso io nn gioco a nulla di dx10.... quindi rimango su xp...quando uscira qualcosa di dx10 che mi piacerà passerò forzatamente a vista no?

nella fattispece "The Witcher"

ti informo che the witcher non sfrutta le dx10 e sarà rigorosamente dx9...
quindi godibilissimo su xp...;)

(guarda la mia sign...:read: )

Chicco85
27-09-2007, 15:36
Dal momento che mi è tornata la ram dall'rma, ho fatto 2 test rapidi di bioshock.

Li ho fatti in dx9 sotto vista, per poter valutare l'impatto dell'AA 4x. La configurazione la trovate in firma, con catalyst 7.9 e vga a default.

Ecco i log. Da rilevare che i primi sono dalla caduta dell'aereo all'ingresso della torre, mentre i secondi sono dall'ingresso alla batisfera.

AA 0x AF16x

2007-09-27 16:18:38 - Oblivion
Frames: 5054 - Time: 72292ms - Avg: 69.910 - Min: 42 - Max: 132

2007-09-27 16:20:02 - Oblivion
Frames: 2594 - Time: 27409ms - Avg: 94.640 - Min: 54 - Max: 130

AA 4x AF16x

2007-09-27 16:28:04 - Oblivion
Frames: 3362 - Time: 78233ms - Avg: 42.974 - Min: 21 - Max: 98

2007-09-27 16:29:36 - Oblivion
Frames: 2691 - Time: 39576ms - Avg: 67.995 - Min: 37 - Max: 122

M4R1|<
27-09-2007, 15:37
qualcuno sa quando potrebbero rilasciare i prossimi catalyst? gli ultimi sono stati rilasciati il 10-09, quindi i prossimi circa per il 10-10?

grazie :)

M4R1|<
27-09-2007, 15:39
Dal momento che mi è tornata la ram dall'rma, ho fatto 2 test rapidi di bioshock.

Li ho fatti in dx9 sotto vista, per poter valutare l'impatto dell'AA 4x. La configurazione la trovate in firma, con catalyst 7.9 e vga a default.

Ecco i log. Da rilevare che i primi sono dalla caduta dell'aereo all'ingresso della torre, mentre i secondi sono dall'ingresso alla batisfera.

AA 0x AF16x

2007-09-27 16:18:38 - Oblivion
Frames: 5054 - Time: 72292ms - Avg: 69.910 - Min: 42 - Max: 132

2007-09-27 16:20:02 - Oblivion
Frames: 2594 - Time: 27409ms - Avg: 94.640 - Min: 54 - Max: 130

AA 4x AF16x

2007-09-27 16:28:04 - Oblivion
Frames: 3362 - Time: 78233ms - Avg: 42.974 - Min: 21 - Max: 98

2007-09-27 16:29:36 - Oblivion
Frames: 2691 - Time: 39576ms - Avg: 67.995 - Min: 37 - Max: 122

mhm ma nn era bioshock? e a quale risoluzione?

Pat77
27-09-2007, 15:41
mhm ma nn era bioshock? e a quale risoluzione?

Per mettere il fsaa devi rinominare l'exe in oblivion, ecco perchè appare oblivion, comunque veramente un ottimo risultato.

-Feanor-
27-09-2007, 15:45
Per mettere il fsaa devi rinominare l'exe in oblivion, ecco perchè appare oblivion, comunque veramente un ottimo risultato.

infatti...;)

cmq fps minimi 54...:sbav:

nitro89
27-09-2007, 17:40
mhm ma nn era bioshock? e a quale risoluzione?

Quoto,risoluzione?1680x1050?

Chicco85
27-09-2007, 17:44
Esatto 1680x1050. ;)

M4R1|<
27-09-2007, 20:27
Esatto 1680x1050. ;)

ammazza hai detto 1680x1050!!! :eek: mi sembrano degli ottimi risultati, considerato che hai attivo AA, complimenti!!!

al più presto dovrei provarlo su un full hd (bioshock) quale è la procedure?
devo rinominarlo in oblivion.exe e poi dal ccc abilito le imp della AA?

thk :)

Nos89
27-09-2007, 20:34
Anche perchè, acquistare questa scheda, senza passare a vista e quindi non sfruttare le dx10, che senso ha ?!? Qualcuno ci stà giocando su xp ?!?

e vedi un po che metto quel catafalco di Vista...da quando ho G80(Marzo) sempre e solo Xp SP2:cool:

Iantikas
27-09-2007, 20:42
ammazza hai detto 1680x1050!!! :eek: mi sembrano degli ottimi risultati, considerato che hai attivo AA, complimenti!!!

al più presto dovrei provarlo su un full hd (bioshock) quale è la procedure?
devo rinominarlo in oblivion.exe e poi dal ccc abilito le imp della AA?

thk :)

in XP DX9 anzikè vista DX9 son anke migliori...

...cmq devi rinominare l'exe Bioshock nella cartella del gioco in Oblivion.exe...poi rinomini anke il collegamento sul desktop rinominando anke la voce "destinazione", aggiungendo poi a questa voce -dx9 (esce una cosa tipo [".........Oblivion.exe" -dx9])...e attivi l'AA da CCC (tenendo attivo il catalyst ai altrimenti nn funziona)...


...io feci così e funzionò...ciao

M4R1|<
27-09-2007, 20:47
in XP DX9 anzikè vista DX9 son anke migliori...

...cmq devi rinominare l'exe Bioshock nella cartella del gioco in Oblivion.exe...poi rinomini anke il collegamento sul desktop rinominando anke la voce "destinazione", aggiungendo poi a questa voce -dx9 (esce una cosa tipo [".........Oblivion.exe" -dx9])...e attivi l'AA da CCC (tenendo attivo il catalyst ai altrimenti nn funziona)...


...io feci così e funzionò...ciao

bene bene proverò volentieri!
Grazie

Chicco85
27-09-2007, 20:50
ammazza hai detto 1680x1050!!! :eek: mi sembrano degli ottimi risultati, considerato che hai attivo AA, complimenti!!!

al più presto dovrei provarlo su un full hd (bioshock) quale è la procedure?
devo rinominarlo in oblivion.exe e poi dal ccc abilito le imp della AA?

thk :)

E questi due log sono fatti nel medesimo modo ma in dx10.

AA0X AF16X dx10

2007-09-27 21:46:13 - Oblivion
Frames: 3716 - Time: 86512ms - Avg: 42.953 - Min: 26 - Max: 74

2007-09-27 21:47:52 - Oblivion
Frames: 2684 - Time: 42424ms - Avg: 63.266 - Min: 42 - Max: 99

M4R1|<
27-09-2007, 20:57
E questi due log sono fatti nel medesimo modo ma in dx10.

AA0X AF16X dx10

2007-09-27 21:46:13 - Oblivion
Frames: 3716 - Time: 86512ms - Avg: 42.953 - Min: 26 - Max: 74

2007-09-27 21:47:52 - Oblivion
Frames: 2684 - Time: 42424ms - Avg: 63.266 - Min: 42 - Max: 99

credo propri che con questo gioco la 2900 mostri le sue potenzialità. peccato che i driver in vista e ancor più in DX10 sono ancora poco maturi.

cmq ottimi fps ;)

Chicco85
27-09-2007, 21:00
Ah, ascolta, tu crysis beta l'hai provato su xp? Perchè io al massimo dettaglio a 1680x1050 sono a 20 fps di media. Ricordavo che tu parlavi di 35-36...

M4R1|<
27-09-2007, 21:28
Ah, ascolta, tu crysis beta l'hai provato su xp? Perchè io al massimo dettaglio a 1680x1050 sono a 20 fps di media. Ricordavo che tu parlavi di 35-36...

no sorry sotto xp nn ho provato, ma ho setito che si fanno 8/10 fps di media in più in tutte le statistiche ;)

nitro89
27-09-2007, 22:39
E questi due log sono fatti nel medesimo modo ma in dx10.

AA0X AF16X dx10

2007-09-27 21:46:13 - Oblivion
Frames: 3716 - Time: 86512ms - Avg: 42.953 - Min: 26 - Max: 74

2007-09-27 21:47:52 - Oblivion
Frames: 2684 - Time: 42424ms - Avg: 63.266 - Min: 42 - Max: 99

Si nota la differenza tra dx9 e dx10?

Cmq Ragazzi martedi Ordino 2 2900,una per me e una per un mio amico.Ma prima proviamo il CF sul mio pc ;)

Mi aggiungo a voi :D

carver
27-09-2007, 22:43
no sorry sotto xp nn ho provato, ma ho setito che si fanno 8/10 fps di media in più in tutte le statistiche ;)

la versione beta di crysis a pagamento?

M4R1|<
28-09-2007, 06:00
scusa un'informazione a voi vi funza in rivatunner la modalità che modifica il rapporto temperatura/rpm vetola?

a me andave a adesso no

uppo magari nessuno ha visto

M4R1|<
28-09-2007, 06:02
la versione beta di crysis a pagamento?

si ho pagato già a inizio agosto un abbonamento di 12 mesi, però sfortunatamente l'account l'ha preso un mio amico, perchè quando è uscita la beta 2 io ero agli allenamenti di karate (quindi nn al pc).

cmq lascia stare;)

mordsiger
28-09-2007, 09:12
ti informo che the witcher non sfrutta le dx10 e sarà rigorosamente dx9...
quindi godibilissimo su xp...;)

(guarda la mia sign...:read: )

ero convinto che fosse dx10.... bene allora x passare a vista aspetterò qualcos'altro che mi attizza !!!

papafoxtrot
28-09-2007, 12:27
Salve a tutti gente! Allora ho deciso di acquistare una hd2900xt 512Mb per un amico. C'è qualcosa a cui devo fare attenzione? dovrei prendere una sapphire e penso che il case sarà un thermaltake armor full.

E' davvero così rumorosa?
Alla fine costa 100e in meno della 8800gtx e le prestazioni ormai dovrebbero essere quelle, anzi si dimostra a volte superiore...
Non supporterà, vero, le dx10.1? e neanche le nvidia vero?
Scusate la valagna di domande ma non vorrei trovare sorprese!

+Lonewolf+
28-09-2007, 13:52
Salve a tutti gente! Allora ho deciso di acquistare una hd2900xt 512Mb per un amico. C'è qualcosa a cui devo fare attenzione? dovrei prendere una sapphire e penso che il case sarà un thermaltake armor full.

E' davvero così rumorosa?
Alla fine costa 100e in meno della 8800gtx e le prestazioni ormai dovrebbero essere quelle, anzi si dimostra a volte superiore...
Non supporterà, vero, le dx10.1? e neanche le nvidia vero?
Scusate la valagna di domande ma non vorrei trovare sorprese!

non è poi tanto rumorosa sec me

le prestazioni sono tra una gts e una gtx anche se spesso supera la gtx specialmen te nei titoli + nuovi e con uso massiccio di shader

le dx 10.1 richiederanno solo la tassellation unit obbligatoria che la 2900 ha;)

le nvidia non hanno tassellation

mordsiger
28-09-2007, 13:57
scusate, si sa niente dell'uscita di una nuova revision dell'atitool? ...sono bloccato in overclock se nn ho quella... ma è possibile che sia l'unico programma che modifica i voltaggi?

Nos89
28-09-2007, 14:00
non è poi tanto rumorosa sec me

le prestazioni sono tra una gts e una gtx anche se spesso supera la gtx specialmen te nei titoli + nuovi e con uso massiccio di shader

le dx 10.1 richiederanno solo la tassellation unit obbligatoria che la 2900 ha;)

le nvidia non hanno tassellation

no...sembra un ventilatore al max:asd:
le prestazioni sono superiori alla GTS ma quasi mai nei confronti della GTX....ma sopratutto con AA...la GTX non la supera mai e alcune volte va peggio della GTS......
tanto non le supporta in Hardware le Dx 10.1 quindi puoi pure evitare di dire certe cose:D

wiltord
28-09-2007, 14:02
scusate, si sa niente dell'uscita di una nuova revision dell'atitool? ...sono bloccato in overclock se nn ho quella... ma è possibile che sia l'unico programma che modifica i voltaggi?

prova a chiedere sul forum di techpowerup ;)

safendi
28-09-2007, 14:09
Si nota la differenza tra dx9 e dx10?

Cmq Ragazzi martedi Ordino 2 2900,una per me e una per un mio amico.Ma prima proviamo il CF sul mio pc ;)

Mi aggiungo a voi :D

x me con 2 avrai + problemi ke soddisfazioni, tanti giochi vanno meglio con 1 che con 2. io prima della 8800gtx avevo sempre sli ed è così, almeno che stai li a tirarti matto a configurare i giochi o aspetti che ati faccia il profilo giusto crossfire x ogni gioco. poi fai te

M4R1|<
28-09-2007, 14:12
no...sembra un ventilatore al max:asd:
si ma nn ci sta mai al max

le prestazioni sono superiori alla GTS ma quasi mai nei confronti della GTX....ma sopratutto con AA...la GTX non la supera mai e alcune volte va peggio della GTS......

nn è del tutto vera la prima affermazione, infatti come ha detto +Lonewolf+ negli ultimi game dove si sfruttano gli shader e dove ci sono dei buoni driver le prestazioni sono ben diverse. lo si può notare sotto XP inizialmente la 2900 in bioshock faceva circa 10fps in più della ultra, e se nn ricordo male ora (coi nuovi driver nvidia) si eguagliano.

tanto non le supporta in Hardware le Dx 10.1 quindi puoi pure evitare di dire certe cose:D

nn lo puoi sapere, visto che ci sono ancora alcune incertezze e nn ci sono nemmeno delle conferme e/o sementite ufficiali;)

siccome il 3d è da un po' che ha un buon anzi ottimo andamento vediamo di nn ricominciare. se devi dirmi qualcosa su questo fallo in pvt pls così nn si sporca ulteriormente

Nos89
28-09-2007, 14:17
si ma nn ci sta mai al max



nn è del tutto vera la prima affermazione, infatti come ha detto +Lonewolf+ negli ultimi game dove si sfruttano gli shader e dove ci sono dei buoni driver le prestazioni sono ben diverse. lo si può notare sotto XP inizialmente la 2900 in bioshock faceva circa 10fps in più della ultra, e se nn ricordo male ora (coi nuovi driver nvidia) si eguagliano.



nn lo puoi sapere, visto che ci sono ancora alcune incertezze e nn ci sono nemmeno delle conferme e/o sementite ufficiali;)

siccome il 3d è da un po' che ha un buon anzi ottimo andamento vediamo di nn ricominciare. se devi dirmi qualcosa su questo fallo in pvt pls così nn si sporca ulteriormente

sono venuto in pace:D cmq sia si parla sempre di prestazioni senza AA e AF....con questi...praticamente obbligatori la 2900XT è dietro.....per le DX 10.1....sono quasi sicuro che si inventeranno qualche altra cosa:rolleyes: per escludere le 2900XT e mandare decisamente fuori le 8800:rolleyes:

M4R1|<
28-09-2007, 14:22
sono venuto in pace:D cmq sia si parla sempre di prestazioni senza AA e AF....con questi...praticamente obbligatori la 2900XT è dietro.....per le DX 10.1....sono quasi sicuro che si inventeranno qualche altra cosa:rolleyes: per escludere le 2900XT e mandare decisamente fuori le 8800:rolleyes:

si be nvidia e ati dovranno guadagnare, uindi mi pare molto molto ovvio che si inventeranno qualcosa ;)

cmq con AF la 2900 nn si comporta così male, il suo grosso porblema sta nell'AA.
va be dipende poi uno a che ress. gioca;)

Nos89
28-09-2007, 14:23
si be nvidia e ati dovranno guadagnare, uindi mi pare molto molto ovvio che si inventeranno qualcosa ;)

cmq con AF la 2900 nn si comporta così male, il suo grosso porblema sta nell'AA.
va be dipende poi uno a che ress. gioca;)

dici tanto adesso se la passano male....avranno si e no 10€ in banca:asd:
è vera quella cosa dell'AF praticamente su G80 e R600 l'AF16x è praticamente gratis:D

nitro89
28-09-2007, 14:26
x me con 2 avrai + problemi ke soddisfazioni, tanti giochi vanno meglio con 1 che con 2. io prima della 8800gtx avevo sempre sli ed è così, almeno che stai li a tirarti matto a configurare i giochi o aspetti che ati faccia il profilo giusto crossfire x ogni gioco. poi fai te

Passiamo un pomeriggio in compagnia a provarle insieme.Dopo logico che ognuno se ne torna a casa con la rispettiva scheda :D

E' pura curiosità ;)

M4R1|<
28-09-2007, 14:27
dici tanto adesso se la passano male....avranno si e no 10€ in banca:asd:
è vera quella cosa dell'AF praticamente su G80 e R600 l'AF16x è praticamente gratis:D

infatti ;) da quel punto di vista entrambe sono delle ottime architetture, e credo che con le prossime (G90/G100 e R700) lo diventerà quasi anche l'AA

Catan
28-09-2007, 14:30
Salve a tutti gente! Allora ho deciso di acquistare una hd2900xt 512Mb per un amico. C'è qualcosa a cui devo fare attenzione? dovrei prendere una sapphire e penso che il case sarà un thermaltake armor full.

E' davvero così rumorosa?
Alla fine costa 100e in meno della 8800gtx e le prestazioni ormai dovrebbero essere quelle, anzi si dimostra a volte superiore...
Non supporterà, vero, le dx10.1? e neanche le nvidia vero?
Scusate la valagna di domande ma non vorrei trovare sorprese!

guarda niente di che, fai le stesse domande che fanno un pò tutti.
allora la vga ha un dissi oggettivamente + rumoroso rispetto alle 8800gtx,gts e questo è un dato di fatto e io che ho avuto sia una 8800gts che una hd2900 posso confermare.
posso anche dire che xò sono 2 dissi differenti ad esempio con 8800gts clokkata a 600mhz io facevo 71gradi con ventola al 60%, mentre con hd2900 a 800mhz faccio sempre 71grandi con ventola al 37%.
ergo i 2 dissipatori non sono rapportabili...è anche vero che un dissi nvidia 8800 al 60% e quivale in prestazioni a quello della hd2900xt al 37%.

altre domande come ti ho detto allora la situazioen apre questa
dx9 senza filtri eguaglia gtx
dx9 con filtri sta in mezzo alla gtx e una gts anche se oggettivamente a volte ha picci di eugaglio alla gtx e a volte si appiattisce sulla gts.
dx10 senza filtri supera una gtx od eguaglia una gtx
dx10 con aa classico la situazione è come per il dx9 con aa quindi a metà tra una 8800gts e una gtx
dx10 con aa via shader prestazioni eguali o superiori ad una gtx.

il discorso dx10.1 è molto vago ovviamente non supporta le dx10.1 il faTTO che dai rumus di adesso le dx10.1 integreranno il supporto all'aa diretto in gioco e programmato nel codice del gioco(con ogni probabilità eseguito via shader dove r600 si comporta molo bene). e l'obbligo della vga ad eseguire la tassellation dell'immagine che già r600 fà, purtroppo non so se g80 lo faccia a sua volta non en ho mai trovato notizia in alcuna recensione tranne in questa di digit-life dove da quello che si capisce mentre r600 fa la tasselation normalmente g80 potrebbe farla ma non è ancora chiaro come

http://www.digit-life.com/articles2/video/r600-part1.html

poi le dx10.1 dovrebbero introdurre il supporto allo shader model 4.1 ma ancora non ci è dato sapere la differenza tra sm 4.0 anche se credo che siano le stesse differenze minimali tra sm2.0, sm2.0a e sm2.0b

Nos89
28-09-2007, 14:36
infatti ;) da quel punto di vista entrambe sono delle ottime architetture, e credo che con le prossime (G90/G100 e R700) lo diventerà quasi anche l'AA

magari:eek: :sbav:

papafoxtrot
28-09-2007, 14:39
Con un corsair 520w non dovrebbero esserci problemi, no?

DakmorNoland
28-09-2007, 14:53
Con un corsair 520w non dovrebbero esserci problemi, no?

Ovviamente no, puoi anche fare overclock senza problemi. ;)

Nos89
28-09-2007, 14:55
Ovviamente no, puoi anche fare overclock senza problemi. ;)

Quoto

The_SaN
28-09-2007, 15:08
Con un corsair 520w non dovrebbero esserci problemi, no?

Va benissimo, ed é un ottimo alimentatore :)

ninja970
28-09-2007, 16:00
Salve a tutti, devo cambiare VGA e sto facendo un pensierino a questa scheda video ATI.
Ho già letto un bel pò di cose, quindi vado subito al dunque:
1) Conviene andare sulla versione da 1GB di memoria DDR4 ? Eventualmente quale produttore si trova in Italia e quanto costa in più della 512 ?
2) Rimanendo sulla versione "classica" da 512GB quale conviene prendere ? Ho visto la Asus EAH2900 che ha in bundle STALKER, qualche coupon per giochi nuovi e il GamerOSD. Potrebbe essere una valida soluzione o consigliate qualche altra cosa ?
3) Un ultimissima cosa. Esiste qualche produttore che ha messo in commercio una versione un pò più spinta di questa scheda a livello di frequenze ?

*+*kekko*+*
28-09-2007, 16:26
Grave problema ... world in conflict a 20 fps e anche a 10 in piena guerra...è normale...

Catan
28-09-2007, 16:31
Salve a tutti, devo cambiare VGA e sto facendo un pensierino a questa scheda video ATI.
Ho già letto un bel pò di cose, quindi vado subito al dunque:
1) Conviene andare sulla versione da 1GB di memoria DDR4 ? Eventualmente quale produttore si trova in Italia e quanto costa in più della 512 ?
2) Rimanendo sulla versione "classica" da 512GB quale conviene prendere ? Ho visto la Asus EAH2900 che ha in bundle STALKER, qualche coupon per giochi nuovi e il GamerOSD. Potrebbe essere una valida soluzione o consigliate qualche altra cosa ?
3) Un ultimissima cosa. Esiste qualche produttore che ha messo in commercio una versione un pò più spinta di questa scheda a livello di frequenze ?

guarda ti rispondo a cascata

1) non conviene la 1gb a meno che tu non voglia giocare a risoluzioni superiori di 1600x1200 ergo va presa solo se hai un monitor grande da almeno 21" in su.
mediamente viene 100E in + della versione da 512mb. in italia ufficialmente dovrebbe uscire per i primi di ottobre con la sapphire ma in giro si trova già qualche versione della club3d.
2) ma io andrei su quella che costa di meno, il bundle non è importante quindi per la capillarità ed il servizio offerto io in italia consiglio sempre sapphire.
3)mi pare di no almeno non tra i vendor standard...forse la versione toxic della sapphire con raffreddamento a liquido ma credo costi un eresia per avere pochi mhz in + non ne vale la pena