PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 [33] 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Quoziente
30-07-2007, 16:11
io invece li eviterei questi post quasi da fanboy...nn c 'è niente d certo e certamente nn c si può basare solo sull'arkitettura d una skeda x saperne le prestazioni...dire poi ke addirittura didintegrerà G80 in Dx10 mi pare oltremodo eccessivo...nello scenario + roseo andrà alla pari con GTX/Ultra (cosa ke, dato il prezzo, già nn sarebbe male)...

...il consiglio ke posso dare a ki ora è indeciso su cosa aquistare è di basarsi esclusivamente su quello ke la skeda offre attualmente e nn sulle speranze d cosa potrà fare in futuro...io nel prenderla mi son basato su questo, pefettamente conscio d cosa può fare la skeda e son soddisfatto dell'aquisto...ki invece l'ha basato su speranze future sicuramente nn avrà la certezza ke tali speranza in un prox futuro si realizzeranno e quindi potrebbe anke nn ritrovarsi soddisfatto dell'aquisto...

...uno compra una skeda ke riesca a soddisfare le proprie esigenze...nn con la consapevolezza ke ora nn lo fa e con la speranza ke lo faccia in futuro...

...se uno poi vuol guardare molto al futuro allora forse sarebbe meglio ke aspetti altri 3 mesi l'uscità della next gen nvidia ke, quasi sicuramente, sarà notevolmente migliore d qualunque GPU attualmente in commercio (dato ke nn si è mai visto una nuova arkitettura ke va peggio d quella vekkia)...ciao

Probabilmente mi sono espresso male; il succo del mio post era:
- La serie 8800 sai che prestazioni ha
- La 2900 è ancora una mezza incognita
- Se vuoi certezze vai sulla 8800, se (come me) vuoi "fidarti" di ATI punta la 2900
- In DX9 va meglio la 8800 (almeno per ora)
- In DX10 non si sa ancora (POTREBBE andare meglio la 2900)

P.S. Disintegrerà te lo concedo è un termine eccessivo ;)

P.P.S. Sul fatto che non c'é niente di certo sono d'accordo, infatti ho cercato di evidenziare i POTREBBE e i POTENZIALMENTE...

P.P.P.S. Non sono fanboy ATI, ho cambiato bandiera diverse volte nel corso degli anni...

P.P.P.P.S. Ciao!;)

Edit: Un'ultima cosa che potrebbe far pendere l'ago della bilancia verso nvidia e che mi sta facendo pensare al prossimo giro di cambiare: nvidia sta puntando molto sulle partnership con i vari produttori di videogames (vedi Crysis). D'accordo che è capitato ancora che un gioco sponsorizzato da una casa andasse poi meglio con le schede dell'altra, ma cmq questo avvantaggia in qualche modo chi ha seguito il progetto...

Iantikas
30-07-2007, 16:19
mmm....
allora dal CCC ho settato tutto su QUALITY...... ed ecco il risultato su TDU:


1280X1024
TUTTO A PALLA
CPU 4800X2 939 @2700

2007-07-30 17:03:25 - TestDriveUnlimited
Frames: 4432 - Time: 52530ms - Avg: 84.370 - Min: 67 - Max: 102:confused: :mbe: :confused: :mbe:
MOLTO meglio della prova che ho fatto x nos a "standard" come mai questo incremento invece di peggiori risultati?


xkè in tdu l'AA si attiva solo se lo imposti esclusivamente dal gioco...se lo imposti solo da ccc o in entrambi nn s'attiva...c'ero capitato ankio...ciao

carver
30-07-2007, 16:23
anzi.. penso che il dettagli dell'auto peggiori parecchio in optymally quality...


prestazioni:

http://img130.imageshack.us/img130/6528/tduprestazionifk5.th.jpg (http://img130.imageshack.us/my.php?image=tduprestazionifk5.jpg)

balanced:

http://img407.imageshack.us/img407/1333/tdubalancedyx5.th.jpg (http://img407.imageshack.us/my.php?image=tdubalancedyx5.jpg)


optimal quality:
http://img96.imageshack.us/img96/7674/optimalqualityls2.th.jpg (http://img96.imageshack.us/my.php?image=optimalqualityls2.jpg)

carver
30-07-2007, 16:24
xkè in tdu l'AA si attiva solo se lo imposti esclusivamente dal gioco...se lo imposti solo da ccc o in entrambi nn s'attiva...c'ero capitato ankio...ciao

..... ma io non tocco le impostazioni del gioco..., le lascio sempre tutte a palla..
ho provato solo a cambiare le impostaz dei ccc

Free Gordon
30-07-2007, 16:33
Mentre per il futuro, nvidia ha già annunciato g92 per novembre, e dalle specifiche trapelate (per quanto ben poco attendibili) sembrerebbe essere un'architettura del tutto nuova e molto performante (circa il doppio di una 8800ultra).


Non credo proprio che il prossimo giro raddoppino di nuovo le prestazioni.. è più probabile che sia un passaggio tipo quello da nv40 a G70 (o da R420 a R520 ^_^). :)

Si parla di 1mld di transistor (come anche in casa AMD/ATI, del resto), non credo che con un incremento di transistor di appena il 40% rispetto a G80 si possano raddoppiare le prestazioni, perchè resteranno forti limiti di frequenza anche coi 65nm. ;)

Ad esempio con G80 è accaduto che un incremento del 120% dei transistors ha portato ad un raddoppio delle prestazioni sui titoli old style (rispetto a G70). Stesso dicasi con NV30, NV40.. ecc ecc..

Free Gordon
30-07-2007, 16:36
E questo 3d mi sa che entra di diritto nella fascia off-topic, ricco di flame e infantilità varie.

Quoto. :cry:
Per favore, ragazzi...

carver
30-07-2007, 16:42
Aggiungete un po' di risultati dettaglia di 3d mark 06? voglio vedere se son in media..

Free Gordon
30-07-2007, 16:42
http://techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/power-idle.gif
http://techreport.com/reviews/2007q3/radeon-hd-2900xt-1gb/power-load.gif


In questa rece tra GTS e GTX ci sono solo 29W di differenza, in load...mi pare poco.

Interessante però notare che la 2900XT faccia registrare 20W di differenza (a favore) rispetto alla 8800GTS, in idle... segno che i sistemi di controllo dei consumi sono molto efficaci su R600 :D
Anche se in load consuma come una GTX... (del resto ha lo stesso quantitativo di transistor ;) ).


Ps. la versione da 1GB consuma di meno perchè molto probabilmente monta chip selezionati che tengono le freq default con voltaggi leggermente più bassi... (a dispetto del quantitativo di ram, doppio, della board...).
A questo punto, costasse sotto i 400 euro, potrebbe essere un'alternativa interessante per i titoli del 2008, chi lo sa...? :)

Iantikas
30-07-2007, 16:43
Non credo proprio che il prossimo giro raddoppino di nuovo le prestazioni.. è più probabile che sia un passaggio tipo quello da nv40 a G70 (o da R420 a R520 ^_^). :)

Si parla di 1mld di transistor (come anche in casa AMD/ATI, del resto), non credo che con un incremento di transistor di appena il 40% rispetto a G80 si possano raddoppiare le prestazioni, perchè resteranno forti limiti di frequenza anche coi 65nm. ;)

Ad esempio con G80 è accaduto che un incremento del 120% dei transistors ha portato ad un raddoppio delle prestazioni sui titoli old style (rispetto a G70). Stesso dicasi con NV30, NV40.. ecc ecc..

dipende tutto da quanto miglioreranno l'arkitettura nn dal numero d transistor...(un es nenake tanto lontano è R580 con R520 dove con un aumento d circa 20mil d transistor aumentarono le prestazioni dal 20% al 40% a seconda dell'applicazione)

...cmq la mia speranza è ke R600 soddisfi le mie esigenze almeno fino a marzo 2008...se nn lo farà la seconda speranza è ke la next gen nvidia si riveli un mostro e possa soddisfare le mie esigenze x tutto il 2008...

...ciao

Pat77
30-07-2007, 16:52
In questa rece tra GTS e GTX ci sono solo 29W di differenza, in load...mi pare poco.

Interessante però notare che la 2900XT faccia registrare 20W di differenza (a favore) rispetto alla 8800GTS, in idle... segno che i sistemi di controllo dei consumi sono molto efficaci su R600 :D
Anche se in load consuma come una GTX... (del resto ha lo stesso quantitativo di transistor ;) ).


Ps. la versione da 1GB consuma di meno perchè molto probabilmente monta chip selezionati che tengono le freq default con voltaggi leggermente più bassi... (a dispetto del quantitativo di ram, doppio, della board...).
A questo punto, costasse sotto i 400 euro, potrebbe essere un'alternativa interessante per i titoli del 2008, chi lo sa...? :)

1 Gb di texture sarebbe una quantità veramente mostruosa, qualcuno sa se in r600 vi è qualche nuovo algoritmo di compressione, visto che con r4xx ati puntò molto su questo fattore, anche se dopo i botti con s3 e 3dfx niente si è fatto verso questo versante? (dxtc infatti è i 4 a 1, in alcune circostanze 6 a 1, ma resta sempre abbastanza basso come ratio).

Pat77
30-07-2007, 16:55
Aggiungete un po' di risultati dettaglia di 3d mark 06? voglio vedere se son in media..

9000 circa

Free Gordon
30-07-2007, 16:55
dipende tutto da quanto miglioreranno l'arkitettura nn dal numero d transistor...(un es nenake tanto lontano è R580 con R520 dove con un aumento d circa 20mil d transistor aumentarono le prestazioni dal 20% al 40% a seconda dell'applicazione)


I transistor da R520 a R580 sono aumentati di 50mln di unità. ;) (da 330mln R520 a 380mln R580).

Il fatto che r580 sia il 40% più veloce nei giochi di R520 da dove sbuca?!?!? :mbe: Mai vista una cosa simile (ovviamente a parità di banda e freq core... :) ).

Inoltre, il problema di r520 era proprio che aveva grosse deficienze nello shader core, con sole 16 shader unit.
Per questo può succedere che in alcune situazioni il chip sia shader limited e un pò del potenziale fillrate e banda (identici ad R580) vadano sprecati. Ma questo è più un limite di R520 che un merito di R580 e del povero incremento di transistor che ha subìto.

Cmq se noti la tendenza attuale dei giochi è ancora di dipendere molto dal fillrate puro (l'esempio del successo di G80 è lampante...) e molto meno dalle capacità di shading.
Anche per questo la differenza effettiva attuale tra un R520 e un R580 è di un 15%-20% quando và bene.

Free Gordon
30-07-2007, 17:00
1 Gb di texture sarebbe una quantità veramente mostruosa, qualcuno sa se in r600 vi è qualche nuovo algoritmo di compressione, visto che con r4xx ati puntò molto su questo fattore, anche se dopo i botti con s3 e 3dfx niente si è fatto verso questo versante? (dxtc infatti è i 4 a 1, in alcune circostanze 6 a 1, ma resta sempre abbastanza basso come ratio).

per quanto ricordo da alcune slide, su 360 si arriva ad usare l'8:1, per cui credo anche su pc. sempre compressione "standard" dxtc. ;)

poi ATI ha il 3dc per le normal maps: http://www.agdc.com.au/04presentations/thu_jonathan_zarge.ppt
ed nVidia anche ha il suo metodo (con R600 adottato anche da ATI).

di più non saprei. :p

appleroof
30-07-2007, 17:31
I transistor da R520 a R580 sono aumentati di 50mln di unità. ;) (da 330mln R520 a 380mln R580).

Il fatto che r580 sia il 40% più veloce nei giochi di R520 da dove sbuca?!?!? :mbe: Mai vista una cosa simile (ovviamente a parità di banda e freq core... :) ).

Inoltre, il problema di r520 era proprio che aveva grosse deficienze nello shader core, con sole 16 shader unit.
Per questo può succedere che in alcune situazioni il chip sia shader limited e un pò del potenziale fillrate e banda (identici ad R580) vadano sprecati. Ma questo è più un limite di R520 che un merito di R580 e del povero incremento di transistor che ha subìto.

Cmq se noti la tendenza attuale dei giochi è ancora di dipendere molto dal fillrate puro (l'esempio del successo di G80 è lampante...) e molto meno dalle capacità di shading.
Anche per questo la differenza effettiva attuale tra un R520 e un R580 è di un 15%-20% quando và bene.

non è corretto: per restare in casa Nvidia, la 7950gx2 ha un fill-rate maggiore della 8800gtx, la 7900gtx solo di poco inferiore, eppure la 8800gtx và meglio, in alcuni casi molto meglio, di entrambe in dx9.....

Chicco85
30-07-2007, 18:03
In questa rece tra GTS e GTX ci sono solo 29W di differenza, in load...mi pare poco.

Interessante però notare che la 2900XT faccia registrare 20W di differenza (a favore) rispetto alla 8800GTS, in idle... segno che i sistemi di controllo dei consumi sono molto efficaci su R600 :D
Anche se in load consuma come una GTX... (del resto ha lo stesso quantitativo di transistor ;) ).


Ps. la versione da 1GB consuma di meno perchè molto probabilmente monta chip selezionati che tengono le freq default con voltaggi leggermente più bassi... (a dispetto del quantitativo di ram, doppio, della board...).
A questo punto, costasse sotto i 400 euro, potrebbe essere un'alternativa interessante per i titoli del 2008, chi lo sa...? :)

Molto interessanti questi grafici sui consumi... Quanto ai 20 watt di differenza rispetto alla GTS è un fattore da tenere a mente perchè, almeno nel mio caso, il 90 % del pc rimane in idle (e quando sta acceso per 8 ore, 20 watt ogni istante alla lunga si fanno sentire). Oltretutto questo divario si può amplificare smanettando manualmente con i voltaggi via software, sempre che Ati Tool lo permetta efficacemente (se avete info a riguardo ve ne sarei molto grato... :D)

MonsterMash
30-07-2007, 18:14
Non credo proprio che il prossimo giro raddoppino di nuovo le prestazioni.. è più probabile che sia un passaggio tipo quello da nv40 a G70 (o da R420 a R520 ^_^). :)

Si parla di 1mld di transistor (come anche in casa AMD/ATI, del resto), non credo che con un incremento di transistor di appena il 40% rispetto a G80 si possano raddoppiare le prestazioni, perchè resteranno forti limiti di frequenza anche coi 65nm. ;)

Ad esempio con G80 è accaduto che un incremento del 120% dei transistors ha portato ad un raddoppio delle prestazioni sui titoli old style (rispetto a G70). Stesso dicasi con NV30, NV40.. ecc ecc..

Non so se considerarlo attendibile o no, ma xbitlabs ha tirato fuori qualche giorno fa un rumors sulle specifiche di g92. E da quello che dicono, sembrerebbe ben più di un'evoluzione di g80:

http://www.xbitlabs.com/discussion/3953.html

Si parla di oltre 1 teraflops, per cui almeno il doppio di g80.

Ciao

×§ñåkê×
30-07-2007, 18:56
Non so se considerarlo attendibile o no, ma xbitlabs ha tirato fuori qualche giorno fa un rumors sulle specifiche di g92. E da quello che dicono, sembrerebbe ben più di un'evoluzione di g80:

http://www.xbitlabs.com/discussion/3953.html

Si parla di oltre 1 teraflops, per cui almeno il doppio di g80.

Ciao

la 8800 ultra arriva a 650 gigaflops mi pare

betha
30-07-2007, 19:25
Se dai un'occhiata al mio nick penso che dovresti renderti conto che quando parlo non lo faccio certamente con gli occhi bendati. Ogni riferimento a fatti o persone è comunque puramente casuale....
Circa le deduzioni in oggetto i benchmarks a disposizione su directX10 sono già limitatissimi in numero ed ottimizzazione con le varie architetture e se si iniziano a mettere in dubbio quei pochi che ci sono (CoJ compreso) la babilionia è aperta e chiunque può dire la sua, fanboys compresi.
La mia comunque era ed è un'osservazione sull'architettura di R600 che, rispetto a G80, si troverà molto più a suo agio con i softwares certamente più shader intensive previsti con le nuove API grafiche Microsoft.

Msoft ha pubblicato la sdk dell dx10.1...e apparentemente non c'é tessellation ne supporto per la fisica...
Direct3D 10.1 Tech Preview

Direct3D 10.1 is an incremental, side-by-side update to Direct3D 10.0 that provides a series of new rendering features that will be available in an upcoming generation of graphics hardware.

* TextureCube Arrays which are dynamically indexable in shader code.
* An updated shader model (shader model 4.1).
* The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions.
* The ability to render to block-compressed textures.
* More flexibility with respect to copying of resources.
* Support for blending on all unorm and snorm formats.


http://www.microsoft.com/downloads/details.aspx?FamilyID=529f03be-1339-48c4-bd5a-8506e5acf571&DisplayLang=en#new

-Feanor-
30-07-2007, 19:27
Msoft ha pubblicato la sdk dell dx10.1...e apparentemente non c'é tessellation ne supporto per la fisica...
Direct3D 10.1 Tech Preview

Direct3D 10.1 is an incremental, side-by-side update to Direct3D 10.0 that provides a series of new rendering features that will be available in an upcoming generation of graphics hardware.

* TextureCube Arrays which are dynamically indexable in shader code.
* An updated shader model (shader model 4.1).
* The ability to select the MSAA sample pattern for a resource from a palette of patterns, and retrieve the corresponding sample positions.
* The ability to render to block-compressed textures.
* More flexibility with respect to copying of resources.
* Support for blending on all unorm and snorm formats.


http://www.microsoft.com/downloads/details.aspx?FamilyID=529f03be-1339-48c4-bd5a-8506e5acf571&DisplayLang=en#new

ho paura che quel shader model 4.1 si porti via la compatibilita con la generazione attuale..:muro:

Iantikas
30-07-2007, 19:27
I transistor da R520 a R580 sono aumentati di 50mln di unità. ;) (da 330mln R520 a 380mln R580).

Il fatto che r580 sia il 40% più veloce nei giochi di R520 da dove sbuca?!?!? :mbe: Mai vista una cosa simile (ovviamente a parità di banda e freq core... :) ).

Inoltre, il problema di r520 era proprio che aveva grosse deficienze nello shader core, con sole 16 shader unit.
Per questo può succedere che in alcune situazioni il chip sia shader limited e un pò del potenziale fillrate e banda (identici ad R580) vadano sprecati. Ma questo è più un limite di R520 che un merito di R580 e del povero incremento di transistor che ha subìto.

Cmq se noti la tendenza attuale dei giochi è ancora di dipendere molto dal fillrate puro (l'esempio del successo di G80 è lampante...) e molto meno dalle capacità di shading.
Anche per questo la differenza effettiva attuale tra un R520 e un R580 è di un 15%-20% quando và bene.


nn mi trovi daccordo, sopratutto sul fatto ke attualmente i gioki dipendano molto dal fill rate e molto meno dalle capacità d shading...il successo d G80 nn'è dovuto alla sue pontenzialità con texture filtrate e non ma ad un'arkitettura ben equilibrata...

...cmq x tornare al discorso R580/520... http://www.beyond3d.com/content/reviews/2/1 ...

...prendendo come base 1600x1200...

Far CRY HDR -> x1900xtx va il 33% in + d x1800xt
FAR CRY HDR 4xAA/16xAF -> va il 25.30% in +
SC : CT HDR -> va il 36.10% in +
SC : CT 4xAA/16xAF -> 30% in +
SC : CT 6xAA/16xAF -> 28.10% in +
FEAR sia senza filtri ke con 4xAA/16xAF -> il 28% in +
Doom 3 sia senza ke con 4xAA/16xAF -> 15% in +
Quake 4 -> 17.90% in +
Quake 4 4xAA/16xAF -> 20% in +


...x 50mil d transistor mi sembrano miglioramenti sostanziali..quindi può benissimo essere ke la next gen nvidia con 300mil d transistor in + vada + del doppio d una GTX/Ultra...

...ciao

p.s.: a mio parere nn c'è quasi nessuna relazione diretta tra num d transistor e aumento d performance...dipende tutto da com'è fatta l'arkitettura

betha
30-07-2007, 19:36
ho paura che quel shader model 4.1 si porti via la compatibilita con la generazione attuale..:muro:

non credo
http://www.pctuner.info/up/results/_200707/20070730203542_IMG0017559.jpg

carver
30-07-2007, 20:10
vorrei sapere un overclock base quale fosse.... di partenza sono a 743/828....

le vstre frequenze/ temperature?

3DMark79
30-07-2007, 20:10
ho paura che quel shader model 4.1 si porti via la compatibilita con la generazione attuale..:muro:

Io la penso come betha, non devi preoccuparti imho sarà come è stato con gli shader 2.0 e i 2.0b dell'Ati serie 9000 e la X800 tipo.:asd:

Iantikas
30-07-2007, 21:18
ho paura che quel shader model 4.1 si porti via la compatibilita con la generazione attuale..:muro:

io penso ke una skeda compatibile 4.0 farà cmq girare il gioco ma senza le migliore dei 4.1...nn penso sarà d'obbligo prendersi una skeda dx10.1...ciao

M4R1|<
30-07-2007, 22:21
ragazzi avete visto questo?

http://www.hwstation.net/news/8/359.html

CrAsHeR
30-07-2007, 22:28
ragazzi avete visto questo?

http://www.hwstation.net/news/8/359.html

MOLTO old :D :D

http://www.futuremark.com/community/halloffame/

..e con una cpu cloccata con circa 150mhz di differenza :P (in meno ovviamente )

M4R1|<
30-07-2007, 22:33
MOLTO old :D :D

http://www.futuremark.com/community/halloffame/

..e con una cpu cloccata con circa 150mhz di differenza :P (in meno ovviamente )

lol nn lo sapevo.

Free Gordon
30-07-2007, 23:59
nn mi trovi daccordo, sopratutto sul fatto ke attualmente i gioki dipendano molto dal fill rate e molto meno dalle capacità d shading...il successo d G80 nn'è dovuto alla sue pontenzialità con texture filtrate e non ma ad un'arkitettura ben equilibrata...

Imho, il successo di G80 nei giochi attuali è in gran parte dovuto alla quantità di unità texture e rops in più, rispetto a R600... e ai valori di fillrate sensibilmente più alti, raggiungibili da questo chip.
Ma ovviamente c'è anche da considerare la circuiteria dedicata all'AA che R600 probabilmente non ha (se togli l'AA infatti, XT e GTX sono vicinissime).



...x 50mil d transistor mi sembrano miglioramenti sostanziali..quindi può benissimo essere ke la next gen nvidia con 300mil d transistor in + vada + del doppio d una GTX/Ultra..

C'è un fraintendimento di fondo in quel confronto: prendi due architetture separate da 25mhz sul core e da 2 Gb di banda al secondo sulle memorie e le metti a confronto in situazioni di alto carico filtri.
E' ovvio che una piccola parte del vantaggio che si vede dipende da quei due fattori coniugati, sopratutto dal core.

Anche perchè si passa dal 15 al 35% circa (a 1600x1200 AA4x e AF16x), mai il 40... ma come ho detto sopra, la differenza che si vede è più che altro dovuta ad un grosso limite di R520 sullo shader core (essendo nei software attuali i rapporti ALU:TEX decisamente diversi da 1:1 come in R520 :D ), più che ad un incremento azzeccato di transistor in R580...

Come dici tu potrebbe anche non esserci un diretto legame tra transistor e performance, ma solo perchè per assurdo potrebbero essere i software/giochi ad essere scritti in modi molto differenti l'uno dall'altro...

Nella maggioranza dei casi invece, si segue un certo trend ormai iniziato da qualche anno, che sposta l'enfasi maggiore sulla parte programmabile del chip e la riduce sulle fixed function (TMUs e ROPs) -non ancora abbastanza però, per architetture come R600-.


Cmq è tutto chiaro nel finale di B3D:
"Looking at current applications, though, we can generally see performance increases over X1800 between 15%, even for the less shader bound titles, up to the mid 30% range for the more shader bound cases. ATI points out that with a mere 20% increase in transistors over X1800 they can triple one aspect of performance, and with titles that are available currently that die size increase corresponds exactly in performance. Adding in the high resolution results we see that the performance difference between the X1900 XTX and X1800 XT grows to a fairly large degree, from the 30% range for the less shader bound Quake 4 and towards 50% for F.E.A.R., highlighting the difference the shader performance is making in these cases."

Anche se poi dice che in giochi come FEAR ad alte res, l'aumento arriva fino al 50%, fa notare come ad un incremento del 20% dei transistor corrisponda un incremento di performance dal 15 al 30% in media.

Praticamente un incremento lineare. ^_^ Ritornando al discorso da cui eravamo partiti... ;)
Io non credo proprio che un G92 da 1mln di transistor (e frequenze cmq limitate dal pp a 65nm..) possa doppiare in prestazioni un G80 da 700mln e passa. Imho, in media, ci sarà un incremento simili a quello che si è visto nel passaggio da NV40 a G70.

Free Gordon
31-07-2007, 00:01
la 8800 ultra arriva a 650 gigaflops mi pare

Sono 384Gflops per la Ultra.

carver
31-07-2007, 00:04
com'e' come punteggio?

http://img179.imageshack.us/img179/8022/2900xtdefconbalanceddc6.th.jpg (http://img179.imageshack.us/my.php?image=2900xtdefconbalanceddc6.jpg)

settings impostati su BILANCIATI e freq default

aa4x

http://img293.imageshack.us/img293/7267/2900xtdefconbalancedaa4uv7.th.jpg (http://img293.imageshack.us/my.php?image=2900xtdefconbalancedaa4uv7.jpg)
Che temperatura dovrebbe avere in idle? e quale quella in full?

il dinamic control dell'atitool non mi funge troppo bene....
a volte rimane impostato all 81% ( l'ho mesa io quando e' sopra i 65°) anche quando la temperatura scende sotto il valore soglia ( 65° appunto)

Free Gordon
31-07-2007, 00:25
non è corretto: per restare in casa Nvidia, la 7950gx2 ha un fill-rate maggiore della 8800gtx, la 7900gtx solo di poco inferiore, eppure la 8800gtx và meglio, in alcuni casi molto meglio, di entrambe in dx9.....

Togliendo la gx2 che è una soluzione dual GPU con gli ovvi problemi che ne conseguono, il problema non è nel texture fillrate puro, ma applicando l'AF.
G80 ha un vantaggio decisamente grande su G71 in quel caso (24 unità contro le 64 di G80 ;) ).

Inoltre il pixel fillrate su G80 è a dir poco spaventoso.. (24 rops a 575mhz, con 8 volte la capacità sugli z pixel..). Quì la differenza con G71 è ancora più grande.

overjet
31-07-2007, 10:41
Sono usciti i 7.8 beta.

Tidus.hw
31-07-2007, 11:19
Sono usciti i 7.8 beta.

si, 2-3 giorni fa :)

overjet
31-07-2007, 11:40
Ok... :D

robertmor
31-07-2007, 12:34
salve a tutti,
secondo voi sono cpu limited con un athlon64 3800+ 2500mhz (non dualcore)
:D e ati hd2900xt?

MaRtH
31-07-2007, 12:54
salve a tutti,
secondo voi sono cpu limited con un athlon64 3800+ 2500mhz (non dualcore)
:D e ati hd2900xt?


Mah, a che risoluzione giochi?

Oltre i 1280x1024 non dovresti essere limitato più di tanto...

Comunque basta che provi ad occare un altro pò...

Non ci arrivi almeno ai 250x11? ;)

EDIT: Dalla tua sign vedo che giochi in full HD, a quella risoluzioni non credo proprio che tu possa essere CPU limited in modo sensibile, magari solo un pò nei giochi che sfruttano a dovere i dualcore...

Nos89
31-07-2007, 13:04
salve a tutti,
secondo voi sono cpu limited con un athlon64 3800+ 2500mhz (non dualcore)
:D e ati hd2900xt?

un po si....sopratutto con i nuovi game che richiedono il dual tipo Colin:dirt......secondo me per 55€ ti conviene prendere un X2

Pat77
31-07-2007, 13:14
salve a tutti,
secondo voi sono cpu limited con un athlon64 3800+ 2500mhz (non dualcore)
:D e ati hd2900xt?

Ti conviene secondo me almeno un 3800 x2 ;)

robertmor
31-07-2007, 13:40
Mah, a che risoluzione giochi?

Oltre i 1280x1024 non dovresti essere limitato più di tanto...

Comunque basta che provi ad occare un altro pò...

Non ci arrivi almeno ai 250x11? ;)

EDIT: Dalla tua sign vedo che giochi in full HD, a quella risoluzioni non credo proprio che tu possa essere CPU limited in modo sensibile, magari solo un pò nei giochi che sfruttano a dovere i dualcore...

si ma come mai nel 3dmark 2006 faccio solo 6000pnt?

masicuro
31-07-2007, 13:42
Approposito di athlonx x2..io ho un 4200+ x2 e vorrei cambiare sk video.. solo che sono indeciso tra le 8800gts e la 2900xt (max voglio spendere 350euro).
Vorrei che la scheda che ho scelto mi faccia giocare bene i i giochi next-gen dx10 tipo Crysis e UT3. Ho visto migliaglia di test.. ma nn so ancora che decidere..nn so se sperare in qualche miglioramento della 2900, che mi consigliate:confused:

Ps. ho un alimentatore Enermax475ax da 470Watt con i v12 su 2 canali rispettivamente da 15 e 16 ampere

Nos89
31-07-2007, 13:43
si ma come mai nel 3dmark 2006 faccio solo 6000pnt?

perchè il 3D06 è molto dipendente dalla cpu....cmq mi sembra cmq bassino...con un P4 4.10Ghz ho fatto 7100p con la 8800 che solitamente macina un po meno in questo bench...
cmq sei in linea;)

Nos89
31-07-2007, 13:44
Approposito di athlonx x2..io ho un 4200+ x2 e vorrei cambiare sk video.. solo che sono indeciso tra le 8800gts e la 2900xt (max voglio spendere 350euro).
Vorrei che la scheda che ho scelto mi faccia giocare bene i i giochi next-gen dx10 tipo Crysis e UT3. Ho visto migliaglia di test.. ma nn so ancora che decidere..nn so se sperare in qualche miglioramento della 2900, che mi consigliate:confused:

Ps. ho un alimentatore Enermax475ax da 470Watt con i v12 su 2 canali rispettivamente da 15 e 16 ampere

non è il tread adatto aprine in consigli/aquisti.....qui è pieno di fanboy me compreso:D

3DMark79
31-07-2007, 13:54
Approposito di athlonx x2..io ho un 4200+ x2 e vorrei cambiare sk video.. solo che sono indeciso tra le 8800gts e la 2900xt (max voglio spendere 350euro).
Vorrei che la scheda che ho scelto mi faccia giocare bene i i giochi next-gen dx10 tipo Crysis e UT3. Ho visto migliaglia di test.. ma nn so ancora che decidere..nn so se sperare in qualche miglioramento della 2900, che mi consigliate:confused:

Ps. ho un alimentatore Enermax475ax da 470Watt con i v12 su 2 canali rispettivamente da 15 e 16 ampere
Allora vai sulla HD2900XT se devi spendere max 350e ad occhi chiusi!;)
Fine OT.

Nos89
31-07-2007, 13:58
Allora vai sulla HD2900XT se devi spendere max 350e ad occhi chiusi!;)
Fine OT.

motivo? apri un tread in consigli per aquisti
Ciao

FINE OT

3DMark79
31-07-2007, 14:05
motivo? apri un tread in consigli per aquisti
Ciao

FINE OT

Se deve spendere non più di 350E è ammettiamo trovi una 8800GTS 640mb anche a quel prezzo meglio una Hd2900XT più longeva a mio parere ed un pò più performante.Non trovi?:cool:

retnI W
31-07-2007, 14:07
si ma come mai nel 3dmark 2006 faccio solo 6000pnt?

Io per valutare le prestazioni "solo" video, al 3dMark05 tolgo la spunta sui test per CPU così testa solo la scheda grafica. Anche la CPU incide ma molto molto meno, al max perdi 500 punti.

Nos89
31-07-2007, 14:07
Se deve spendere non più di 350E è ammettiamo trovi una 8800GTS 640mb anche a quel prezzo meglio una Hd2900XT più longeva a mio parere ed un pò più performante.Non trovi?:cool:

più performante non in tutti i giochi...con evidenti problemi di driver/calore/rumore.....cmq si sono abbastanza d'accordo l'unica incognita rimane in DX10 dove non è detto che R600 sia migliore di G80;)

masicuro
31-07-2007, 14:13
raga considerando che fino a natale non cambio modo e cpu.. e considerando che mi interessa giocare in DX10.. ora come ora in directx10 è meglio una 8800 gts 320mb overclockata di fabbrica o una 2900xt? e cmq con il mio alimentatore rischio che la 2900xt mi muore?

3DMark79
31-07-2007, 14:14
più performante non in tutti i giochi...con evidenti problemi di driver/calore/rumore.....cmq si sono abbastanza d'accordo l'unica incognita rimane in DX10 dove non è detto che R600 sia migliore di G80;)

Quei difetti da te citati ci sono tutti anche se il calore sempra leggermente diminuito con i 7.6 mi sembra, cmq saprà anche a cosa andrà in contro.Se uno acquista adesso e solo questione di fortuna in directX 10 perchè non si sa realmente cosa ti attende, per ora abbiamo solo constatato numeri!Io personalmente penso...attenderò!;)

Nos89
31-07-2007, 14:26
raga considerando che fino a natale non cambio modo e cpu.. e considerando che mi interessa giocare in DX10.. ora come ora in directx10 è meglio una 8800 gts 320mb overclockata di fabbrica o una 2900xt? e cmq con il mio alimentatore rischio che la 2900xt mi muore?

risoluzione monitor? se giochi a 1280x1024 o 1440x900 la 320Mb e comprare la 2900XT è buttare soldi

Pat77
31-07-2007, 16:06
Approposito di athlonx x2..io ho un 4200+ x2 e vorrei cambiare sk video.. solo che sono indeciso tra le 8800gts e la 2900xt (max voglio spendere 350euro).
Vorrei che la scheda che ho scelto mi faccia giocare bene i i giochi next-gen dx10 tipo Crysis e UT3. Ho visto migliaglia di test.. ma nn so ancora che decidere..nn so se sperare in qualche miglioramento della 2900, che mi consigliate:confused:

Ps. ho un alimentatore Enermax475ax da 470Watt con i v12 su 2 canali rispettivamente da 15 e 16 ampere

Se lo chiedi qui, hai già fatto la tua scelta, se non l'hai fatta, nel 3d di hd2900xt cosa vuoi che ti si dica? Ovviamente tutti consiglieranno hd2900, a meno che non ti capiti che ti risponda nos89.

Iantikas
31-07-2007, 17:18
Approposito di athlonx x2..io ho un 4200+ x2 e vorrei cambiare sk video.. solo che sono indeciso tra le 8800gts e la 2900xt (max voglio spendere 350euro).
Vorrei che la scheda che ho scelto mi faccia giocare bene i i giochi next-gen dx10 tipo Crysis e UT3. Ho visto migliaglia di test.. ma nn so ancora che decidere..nn so se sperare in qualche miglioramento della 2900, che mi consigliate:confused:

Ps. ho un alimentatore Enermax475ax da 470Watt con i v12 su 2 canali rispettivamente da 15 e 16 ampere

l'ali va bene...te ne rimane anke x occare il sistema...

...x quanto riguarda la scelta della skeda video al momento HD2900XT e 8800GTS 640mb se la battono alla pari...ognuna ha i suoi pregi e i suoi difetti...son cmq entrambe buone scelte e scegliere uno o l'altra alla fine è solo questione d preferenze personali...

...la hd2900xt mediamente è sensibilmente + veloce della GTS senza filtri, sopratutto salendo d ris...con i filtri di media vanno uguali (in alcuni gioki va leggermente meglio, in altri leggermente peggio, anke se son + quelli dove va meglio ke quelli dove va peggio)...

...dal punto d vista puramente prestazionale è leggermente favorita...i contro son ke è abb + rumorosa della GTS sotto stress (in 2d invece è silenziosa) e consuma circa 50W in + sotto stress...

...col tuo ali e il tuo sistema i lato consumo cmq nn'è un problema...x quanto riguarda il rumore invece se sei uno ke ama il silenzio ed ha un sistema abb silenzioso devi mettere in conto ke x adesso x R600 nn'è esistono buoni dissi performanti e silenziosi (anke se a breve dovrebbe uscire la versione del HR03+ x R600 ke, dato ke su GTS/GTX/Ultra si comporta egregiamente si suppone lo faccia anke sulla HD2900XT) quindi x ora ti tokkerebbe cmq tenerti il dissi originale e in ogni caso, se nn lo sopporti sarebbe cmq una spesa aggiuntiva...

...tieni cmq presente ke anke se è abb + rumoroso della GTS nn lo è a livelli inaccettabili...io anke se prima d montarla avevo un sistema praticamente inudibile sia in idle ke sotto stress riesco cmq a convinverci dato ke si fa sentire solo mentre gioco e, alzando un pò d + le casse, nn'è un problema insormontabile (x me l'importante è ke nel resto dell'uso lo sia e con la ventola ke in 2d gira al 25% lo è...+ o - fa il rumore d una buona 120mm a 750rpm)...


...x quanto riguarda la DX10 quello ke sai tu so io e tutti noi ed è impossibile dare giudizi certi in questo momento dato ke mancano dati certi su cui poterli basare...se vuoi basare il tuo aquisto su qualcosa d + certo t tocca x forza d cose aspettare almeno novembre, se invece vuoi aquistare ora x ki andrà meglio in DX10 t tocca andre a "sensazioni" e prendere ki tispira d +...

...ciao

+Lonewolf+
31-07-2007, 19:01
risoluzione monitor? se giochi a 1280x1024 o 1440x900 la 320Mb e comprare la 2900XT è buttare soldi

io cel'ho su un 1280...va alla grande

Nos89
31-07-2007, 19:18
io cel'ho su un 1280...va alla grande

=soldi buttati=;)

carver
31-07-2007, 19:46
raga considerando che fino a natale non cambio modo e cpu.. e considerando che mi interessa giocare in DX10.. ora come ora in directx10 è meglio una 8800 gts 320mb overclockata di fabbrica o una 2900xt? e cmq con il mio alimentatore rischio che la 2900xt mi muore?

io ho un procio un po' piu' potente del tuo se e' il 939 x via dell'L2 doppia....
e mi torvo molto bene.... vedendo i risultati dei 3d mark son cpu limited.

nei giochi tutto alla grande.

ps cambia sezione che i flames si sprecano!

Nos89
31-07-2007, 19:48
io ho un procio un po' piu' potente del tuo se e' il 939 x via dell'L2 doppia....
e mi torvo molto bene.... vedendo i risultati dei 3d mark son cpu limited.

nei giochi tutto alla grande.

ps cambia sezione che i flames si sprecano!

gia infatti anche io non ho notato differenze nei giochi dal P4 a C2D il 3Dmark è na sola:O

appleroof
31-07-2007, 20:27
=soldi buttati=;)

non lo so...tutto stà a vedere come si risolve l'incognita dx10...

Nos89
31-07-2007, 20:28
in ottica longevità non direi proprio, probabilmente io che ho un 27" tra pochi mesi sarò costretto a tornare a 1280x1024, ma saranno sempre 1280x1024 "migliori" di chi ha una scheda meno performante.....:)

tra pochi mesi venderò la 8800 o giocherò senza filtri con un 100€ in più da spendere in cazzate:D

Nos89
31-07-2007, 20:28
edit

troppo tardi ti ho gia risposto sono un fulmine:asd:

M4R1|<
31-07-2007, 20:30
=soldi buttati=;)

scusa Nos nn è per creare flame (sia chiaro) ma perchè tu devi parlare male di questa scheda quando nemmeno la possiedi? e poi come fai a dare dei consigli/giudizi se nel case ne hai una totalmente diversa? se io provasi a dire <<G80 = soldi buttati via>> metà del forum mi salta adosso, quindi se nn vuoi sospensioni o richiami o rogne da parte di utenti evita

Nos89
31-07-2007, 20:32
scusa Nos nn è per creare flame (sia chiaro) ma perchè tu devi parlare male di questa scheda quando nemmeno la possiedi? e poi come fai a dare dei consigli/giudizi se nel case ne hai una totalmente diversa? se io provasi a dire <<G80 = soldi buttati via>> metà del forum mi salta adosso, quindi se nn vuoi sospensioni o richiami o rogne da parte di utenti evita

non ho mai flammato ultimamente...se qualcuno mi vuole dire qualcosa lo faccia in PVT (tanto ho la casella piena:asd: )

Iantikas
31-07-2007, 20:32
=soldi buttati=;)

se lo dici tu ;) ...

...ognuno ha le proprie esigenze...nn tutti cambiano skeda ogni sei mesi...anzi la maggior parte se la fan durare 1 anno e mezzo e anke due...

...in questo caso uno cerca d fare un aquisto ke si possa rivelare il + longevo possibile...

...sicuramente una skeda video, qualunque essa sia, si rivelerà + longeva su un 19" ke nn su un 22" o superiore...dato ke con monitor con ris superiori ci si ritroverà prima ad essere costretti a scendere sotto la nativa x mantenere un gameplay fluido con i titoli futuri...

...allo stesso modo se uno aquista una skeda ke nel momento in cui l'aquista garantisce gameplay fluido a ris superiori alla nativa del proprio monitor...si ritroverà con una skeda + longeva rispetto ad un altra ke nel momento in cui l'aquista garantisce un gameplay fluido solo fino alla ris nativa del proprio monitor...

...ciao

appleroof
31-07-2007, 20:33
troppo tardi ti ho gia risposto sono un fulmine:asd:

ho cambiato 3 volte :D

il punto è che sono d'accordo che la 2900xt è schiacciata tra 8800gts (nelle 2 versioni a seconda delle risoluzioni usate) e la gtx, ma resta da chiarire l'incognita dx10 per la conclusione definitiva, questa è la versione finale che completa quanto da te quotato :)

;)

FreeMan
31-07-2007, 21:10
non ho mai flammato ultimamente...se qualcuno mi vuole dire qualcosa lo faccia in PVT (tanto ho la casella piena:asd: )

per logica, viste le precedenti e numerose sospensioni, dovrebbe bastarmi questo richiamo... giusto?

>bYeZ<

nitro89
31-07-2007, 21:18
Ragazzi volevo chiedervi una cosa,che potrà sembrarvi stupida:
Se montassi una 2900xt sul mio pc,sarei fortemente cpu limited anche a 1680x1050,+filtri attivi???(ho un lg 204wt 20'' wide)

davide155
31-07-2007, 21:20
Ragazzi volevo chiedervi una cosa,che potrà sembrarvi stupida:
Se montassi una 2900xt sul mio pc,sarei fortemente cpu limited anche a 1680x1050,+filtri attivi???(ho un lg 204wt 20'' wide)

Assolutamente no ;)

nitro89
31-07-2007, 21:25
Quindi la sfrutterei al 100%?

Perchè non so se passare al Q6600.Il pc lo uso solo per giocare e per andare in internet.

davide155
31-07-2007, 21:27
Quindi la sfrutterei al 100%?

Perchè non so se passare al Q6600.Il pc lo uso solo per giocare e per andare in internet.

Se usi quella risoluzione e i filtri non c'è problema di essere cpu limited.
Se invece inizi a togliere i filtri e ad abbassare la risoluzione allora il discorso cambia.

Ma se invece usi SOLO quella risoluzione con i filtri a palla vedrai che la differenza fra il tuo procio ed un conroe starà solo nel nome :O

nitro89
31-07-2007, 21:32
Voi che l'avete,la scheda in che giochi arranca maggiormente(parlo di res abb alte+filtri)?

davide155
31-07-2007, 21:37
Voi che l'avete,la scheda in che giochi arranca maggiormente(parlo di res abb alte+filtri)?

Lascio la risposta a chi ce l'ha :p

Iantikas
31-07-2007, 21:41
Voi che l'avete,la scheda in che giochi arranca maggiormente(parlo di res abb alte+filtri)?


anke il mio monitor come nativa ha 1680x1050...l'unico gioco dove nn riesco ad usarla è DIRT dove vado a 1440x900 4xAA 16xAF tutto al max (tranne ombre su Alto) ma così sta costantemente sopra i 30fps (un paio d pag fa ho postato dei test con fraps di vari gioki se t'interessa)...

...e poi c'è lost planet dove vado a 1680x1050 tutto al max 16xAF ma senza AA...

...tutti gli altri (tipo fear, quake 4, TDU, stalker, R6V, HL2:EP1, doom 3, Condemned, Gun, GTR2, Oblivion, DM of M&M) sempre dettagli al max, sfrutto la nativa del monitor e almeno i canonici 4xAA/16xAF (a parte i gioki tipo R6V e Stalker dove nn'è possibile attivare l'AA)...

...ciao

Iantikas
31-07-2007, 21:45
Ragazzi volevo chiedervi una cosa,che potrà sembrarvi stupida:
Se montassi una 2900xt sul mio pc,sarei fortemente cpu limited anche a 1680x1050,+filtri attivi???(ho un lg 204wt 20'' wide)


il cpu limited è cmq un discorso relativo...xkè anke se x es. la cpu ti limita ke ti cambia se anzikè fare 100fps fai 70fps?...

...con la tua cpu anke se ti limiterà nn lo farà a tal punto da costringerti ad utilizzare un gameplay inferiore rispetto alle potenzialità della skeda...ma abbasserà solo il framerate ke ottieni (nn xò appunto al livello da costringerti ad abbassare ris, filtri o dettagli ke la skeda d suo è in grado d tenere)...

...ciao

nitro89
31-07-2007, 21:48
anke il mio monitor come nativa ha 1680x1050...l'unico gioco dove nn riesco ad usarla è DIRT dove vado a 1440x900 4xAA 16xAF tutto al max (tranne ombre su Alto) ma così sta costantemente sopra i 30fps (un paio d pag fa ho postato dei test con fraps di vari gioki se t'interessa)...

...e poi c'è lost planet dove vado a 1680x1050 tutto al max 16xAF ma senza AA...

...tutti gli altri (tipo fear, quake 4, TDU, stalker, R6V, HL2:EP1, doom 3, Condemned, Gun, GTR2, Oblivion, DM of M&M) sempre dettagli al max, sfrutto la nativa del monitor e almeno i canonici 4xAA/16xAF (a parte i gioki tipo R6V e Stalker dove nn'è possibile attivare l'AA)...

...ciao
Apparte quegli aborti di dirt e di lost planet la situazione da te descritta mi sembra piu che buona(ora con la 8600gts 128bit è un disastro alle alte res,pensa che va meglio a 1680 la mia vecchia 1800xl di 2 anni fa :rolleyes: )

Tidus.hw
31-07-2007, 21:53
Ragazzi volevo chiedervi una cosa,che potrà sembrarvi stupida:
Se montassi una 2900xt sul mio pc,sarei fortemente cpu limited anche a 1680x1050,+filtri attivi???(ho un lg 204wt 20'' wide)

si saresti cpu limited :)

davide155
31-07-2007, 22:00
si saresti cpu limited :)

Scusa e perchè?
Dai vari test a tale risoluzione e per di più con l'antialias e l'aniso attivi il cpu limit è blasfemia......a meno che uno non abbia un vekkio p4.......

Ps: Visto che molti giochi ancora non sfruttano i dual core quindi pure io sarei cpu limit???? :rolleyes: Abbiamo le stesse frequenze operative........

×§ñåkê×
31-07-2007, 22:07
Ragazzi volevo chiedervi una cosa,che potrà sembrarvi stupida:
Se montassi una 2900xt sul mio pc,sarei fortemente cpu limited anche a 1680x1050,+filtri attivi???(ho un lg 204wt 20'' wide)

no, la scheda ha un chip che fa pesare meno il cpu limited, in quanto svolge parte delle operazioni autonomamente, normalmente a carico della cpu. con una G80 indubbiamente saresti molto più cpu limited

nitro89
31-07-2007, 22:07
Scusa e perchè?
Dai vari test a tale risoluzione e per di più con l'antialias e l'aniso attivi il cpu limit è blasfemia......a meno che uno non abbia un vekkio p4.......

Ps: Visto che molti giochi ancora non sfruttano i dual core quindi pure io sarei cpu limit???? :rolleyes: Abbiamo le stesse frequenze operative........

Si ma io ho un 3500+ monocore,ricordatelo ;

davide155
31-07-2007, 22:16
Si ma io ho un 3500+ monocore,ricordatelo ;

Si ma pur sempre portato a 2650mhz!
E ricordati che il 90% dei giochi che sono sul mercato sfruttano un solo core........ricordatelo ;)

Iantikas
31-07-2007, 22:27
Si ma io ho un 3500+ monocore,ricordatelo ;


se vui sentirti dire ke devi cambiare cpu ok...devi assolutamente cambiare cpu! :D ...

...un A64@2650mhz è perfettamente in grado d far girare il 99.9% dei gioki attualmente in circolazione (l'unico dove potresti aver problemi è DIRT dove alcuni hanno lamentato cali d framerate nelle garecon + vetture)...e di farlo senza tappare le potenzialità della hd2900xt...

...ti toglierà un pò d frame ma NON ti obbligherà ad abbassare ris, filtri, impo ke la skeda consente...

...poi se lo vuoi cambiare x altri motivi oltre al giocare (fai parekkie conversioni video, mentre gioki hai bisogno d poter fare pure qualcos'altro, etc) allora al momento attuale ti consiglio di prendere un E4400 nella "fascia bassa"...E6750 nella "fascia media"...Q6600 nella fascia alta...tutti e tre da overclokkare xkè è un vero peccato lasciarli a def. visto quanto salgono anke col dissi boxed...

...li abbini ad un P35 e stai apposto x un bel pò...ciao

Tidus.hw
31-07-2007, 23:24
Scusa e perchè?
Dai vari test a tale risoluzione e per di più con l'antialias e l'aniso attivi il cpu limit è blasfemia......a meno che uno non abbia un vekkio p4.......

Ps: Visto che molti giochi ancora non sfruttano i dual core quindi pure io sarei cpu limit???? :rolleyes: Abbiamo le stesse frequenze operative........

guarda io ho fatto delle prove col source (ep 1 e lost coast) e con la cpu a 2,8ghz sono cpu limited fino alla 1600x1200 senza filtri, dalla 1600x1200 coi filtri in poi no ^^

poi in giochi tipo lost planet e vegas dove i dual core vengono sfruttati al 100% lui perderebbe un sacco di frames al secondo....

M4R1|<
31-07-2007, 23:31
piccolo OT

scusate adesso arriva il "nabbo" della situazione: ma uno nn è cpu-limited solo con risoluzioni elevate e tutti i settaggi al max? io ho sempre capito/pensato così? e se nn lo è perchè è l'inverso?

grazie :)

masicuro
01-08-2007, 00:07
Ho letto con attenzione ciò che si è detto..vi rigrazio tutti per i consigli, volevo solo chiedervi un'ultima cosa..attualmente in benchmark su vista tipo Call of juarez dx10 e lost planet dx10 va meglio la 8800 gts 640 o la 2900xt 512? Xkè nei siti che ho visto la cosa è contraddittoria..
Siate imparziali pls;)

carver
01-08-2007, 00:14
Si ma pur sempre portato a 2650mhz!
E ricordati che il 90% dei giochi che sono sul mercato sfruttano un solo core........ricordatelo ;)

CON 1900XT@ DEF... NON e' cambiato nulla tra SANDY 3700@2850 e TOLEDO 4800X2 @2700 in TDU......
il cambiamento l'ho avuto con la 2900... ma il procio SANDY era finito SUL MULETTO ( dura la vita' eh':D?)

Free Gordon
01-08-2007, 01:13
Approposito di athlonx x2..io ho un 4200+ x2 e vorrei cambiare sk video.. solo che sono indeciso tra le 8800gts e la 2900xt (max voglio spendere 350euro).
Vorrei che la scheda che ho scelto mi faccia giocare bene i i giochi next-gen dx10 tipo Crysis e UT3. Ho visto migliaglia di test.. ma nn so ancora che decidere..nn so se sperare in qualche miglioramento della 2900, che mi consigliate:confused:


Beh, se l'upgrade lo fai in previsione futura, ora non ha senso comprare (oltretutto d'estate), aspetta l'autunno che escano i titoli suddetti e poi decidi! :D

Nos89
01-08-2007, 02:06
per logica, viste le precedenti e numerose sospensioni, dovrebbe bastarmi questo richiamo... giusto?

>bYeZ<

direi di si..

davide155
01-08-2007, 06:17
guarda io ho fatto delle prove col source (ep 1 e lost coast) e con la cpu a 2,8ghz sono cpu limited fino alla 1600x1200 senza filtri, dalla 1600x1200 coi filtri in poi no ^^



E io che dicevo? :)

Lui usa tale risoluzione per di più co i filtri aa e aniso.......la cpu a tale livello viene poco considerata.
Un athlon a 2650mhz non è una ciofeca per tale risoluzione. E ripeto.....PER TALE RISOLUZIONE ;)

NvidiaMen
01-08-2007, 07:47
piccolo OT

scusate adesso arriva il "nabbo" della situazione: ma uno nn è cpu-limited solo con risoluzioni elevate e tutti i settaggi al max? io ho sempre capito/pensato così? e se nn lo è perchè è l'inverso?

grazie :)

La limitazione della CPU interviene allorquando la GPU non risulta essere sfruttata al 100%.
Esempio:
Se una scheda video riesce a gestire un applicativo videoludico a 50FPS alla risoluzione di 1920x1200 e filtri abilitati e la CPU riesce a gestire, per lo stesso gioco 120FPS (ad esempio per la gestione dell'AI o della fisica), il sistema è GPU limited.
Con la stessa scheda video abbassando la risoluzione (ad esempio 1680x1050) e magari disabilitando i filtri supponi adesso che gli FPS della GPU salgano a 140FPS, mentre la CPU dovendo gestire comunque sempre le stesse operazioni, rimanga a 120FPS. Ebbene in questo caso sarà la CPU a rallentare il sistema determinando il problema conosciuto come CPU limited.
NM.

Tidus.hw
01-08-2007, 08:10
E io che dicevo? :)

Lui usa tale risoluzione per di più co i filtri aa e aniso.......la cpu a tale livello viene poco considerata.
Un athlon a 2650mhz non è una ciofeca per tale risoluzione. E ripeto.....PER TALE RISOLUZIONE ;)

apparte che la risoluzione che usa lui è più bassa di 1600x1200 e la sua cpu ha 150 mhz della mia :)
ho un amico che ha un 3500+ con la 2900XT, in alcuni giochi e nei benchmark arriva ad avere metà degli fps di chi magari ha un buon dual core (tipo E6600 o 6000+) :)

nitro89
01-08-2007, 08:39
Per non rischiare...appena esce bioshock e crysis passo al c2d\q(sperando che i prezzi calino ulteriormente :D).Inutile tentare di portare avanti un hw vecchio con una scheda video di ultima generazione.Con poca spesa potrei passare ad un e4300(overcloccato al max del suo potenziale),una p5k,2gb ram ddr2(che ho gia a casa) e godermi al meglio questa 2900xt.

Scusate il monologo OT

Iantikas
01-08-2007, 11:32
Per non rischiare...appena esce bioshock e crysis passo al c2d\q(sperando che i prezzi calino ulteriormente :D).Inutile tentare di portare avanti un hw vecchio con una scheda video di ultima generazione.Con poca spesa potrei passare ad un e4300(overcloccato al max del suo potenziale),una p5k,2gb ram ddr2(che ho gia a casa) e godermi al meglio questa 2900xt.

Scusate il monologo OT

a questo punto aspetta ke escano i gioki prima d fare aquisti (se questi aquisti li stai facendo esclusivamente x questi gioki)...anke xkè a novembre (quando esce crysis) esce anke la next gen nvidia...ciao

Mister Tarpone
01-08-2007, 11:49
a questo punto aspetta ke escano i gioki prima d fare aquisti (se questi aquisti li stai facendo esclusivamente x questi gioki)...anke xkè a novembre (quando esce crysis) esce anke la next gen nvidia...ciao

infatti.... ;)

poi cioè... :sob: guardate sti test dx10 :asd:

http://img174.imageshack.us/img174/4392/dx1010x7jj5.png

http://img174.imageshack.us/img174/986/dx1010x7aayt3.png

vabbè.... cmq è solo una beta...:asd: spero che le prestazioni migliorino :sob: :sob: :sob:

Tidus.hw
01-08-2007, 11:59
infatti.... ;)

poi cioè... :sob: guardate sti test dx10 :asd:

http://img174.imageshack.us/img174/4392/dx1010x7jj5.png

http://img174.imageshack.us/img174/986/dx1010x7aayt3.png

vabbè.... cmq è solo una beta...:asd: spero che le prestazioni migliorino :sob: :sob: :sob:

bisogna aspettare che la ati faccia i driver per il gioco, come sempre...
sta storia che per ogni gioco la ati deve fixare i driver comincia a farmi girare le palle ._.

Mister Tarpone
01-08-2007, 12:00
bisogna aspettare che la ati faccia i driver per il gioco, come sempre...
sta storia che per ogni gioco la ati deve fixare i driver comincia a farmi girare le palle ._.

a ma cominciano a farmi girare le balle queste prestazioni... ;)

cmq è solo una beta...

fustacchione90
01-08-2007, 12:02
hey raga...il ban x avere offeso possessori di vga nvidia è finito :D
volevo dirvi che ieri è arrivata la mia bella hd2900xt sapphire rossa lucente ^^ k meraviglia :P

fustacchione90
01-08-2007, 12:03
si allora visto k volgiamo fare gli sboroni io posto i test di crysis non so quanto veritieri...anzi ora lo faccio aspe k li trovo...

carver
01-08-2007, 12:07
hey raga...il ban x avere offeso possessori di vga nvidia è finito :D
volevo dirvi che ieri è arrivata la mia bella hd2900xt sapphire rossa lucente ^^ k meraviglia :P

complimenti...
ps linki x i test di crysis che voglio provarli anche io?
mi dici quando installi il BOX hl2 se ti da solo " the day of defeath?" tra i giochi?

fustacchione90
01-08-2007, 12:11
http://www.hwsetup.it/public/files/news4807_2.jpg
cmq ovviamente ti da solo day of defeat...l orange box deve ancora uscire!! e day of defeat è un gioco free...non centra con la promozione della 2900xt...è tipo fear combat non so se conosci...:sofico:

MonsterMash
01-08-2007, 12:13
complimenti...
ps linki x i test di crysis che voglio provarli anche io?
mi dici quando installi il BOX hl2 se ti da solo " the day of defeath?" tra i giochi?

Non ci sono test di crysis da provare :)
C'è solo un grafico con presunti bench fatti su una demo alpha, ma è noto che si tratta di fake.
Per quanto riguarda il black box di hl2, per il momento è normale che ti compaia solo DoD, perchè ep2, portal e team fortres 2 non sono ancora usciti.

Ciao!

fustacchione90
01-08-2007, 12:13
infatti.... ;)

poi cioè... :sob: guardate sti test dx10 :asd:

http://img174.imageshack.us/img174/4392/dx1010x7jj5.png

http://img174.imageshack.us/img174/986/dx1010x7aayt3.png

vabbè.... cmq è solo una beta...:asd: spero che le prestazioni migliorino :sob: :sob: :sob:

io wic beta lo ho ma non è dx 10 e va molto meglio di cosi :mbe: :mbe:

Mister Tarpone
01-08-2007, 12:14
e va molto meglio di cosi :mbe: :mbe:

indovina perchè... :asd:

fustacchione90
01-08-2007, 12:19
hahah lo so il perchè xD...intendevo nel senso che non sapevo di una versione dx10 ^^ tutto qui...cmq avete visto il link all img del test su crysis? se,mbra molto strana anche a me però cè da dire che sopra a sti test c era pure quello del 3dmark06...e tutti i valori corrispondevano con quelli di hwupgrade...

Tidus.hw
01-08-2007, 12:29
Non ci sono test di crysis da provare :)
C'è solo un grafico con presunti bench fatti su una demo alpha, ma è noto che si tratta di fake.
Per quanto riguarda il black box di hl2, per il momento è normale che ti compaia solo DoD, perchè ep2, portal e team fortres 2 non sono ancora usciti.

Ciao!

ma con la black ti danno anche DoD???? 0.0

quello vecchio o il source?

fustacchione90
01-08-2007, 12:31
ma con la black ti danno anche DoD???? 0.0

quello vecchio o il source?

SOURCE ^^

SamCapone
01-08-2007, 12:46
Ciao a tutti .
Sono nuovo qua e ho appende montato il mio HD 2900xt .
Avevo un sacco di problemi con il CCC .:mad: .
Ma alla fine Prima va installato il driver che viene con la bestia poi il update (http://support.ati.com/ics/support/default.asp?deptID=894) driver per la bestia poi il nuovo driver 7.7 .
Adesso vedo il CCC . Ma non ho più la possibilità di un over Clock con il CCC, quello cera prima con la mia XT1950pro .:boh:
Eeerrr...emmmm.... Con funziona il post del immagini qua? :help:

safendi
01-08-2007, 12:48
x me ora non conviene comprare nulla e aspettare g92 con crysis

Chief
01-08-2007, 12:52
infatti.... ;)

poi cioè... :sob: guardate sti test dx10 :asd:



vabbè.... cmq è solo una beta...:asd: spero che le prestazioni migliorino :sob: :sob: :sob:

Ma come l'hanno fatto a testare :doh: io ho la beta di World In Conflinct su vista non compaiono nemmeno le scritte quando faccio partire il gioco :muro:non oso immaginare come hanno potuto impostare i filtri ,mettere tutto a palla e impostare le dx10 :asd:La devono finire di testare giochi senza un minimo di razionalità :O

Tidus.hw
01-08-2007, 12:52
SOURCE ^^

davvero??? ma io ho inserito la key ma non mi è venuto fuori niente di nuovo 0.0

edit: come non detto, ho reinserito la key e ora c'è... si vede che avevo sbagliato qualcosa.

grazie mille 0.0

Chief
01-08-2007, 12:55
Ciao a tutti .
Sono nuovo qua e ho appende montato il mio HD 2900xt .
Avevo un sacco di problemi con il CCC .:mad: .
Ma alla fine Prima va installato il driver che viene con la bestia poi il update (http://support.ati.com/ics/support/default.asp?deptID=894) driver per la bestia poi il nuovo driver 7.7 .
Adesso vedo il CCC . Ma non ho più la possibilità di un over Clock con il CCC, quello cera prima con la mia XT1950pro .:boh:
Eeerrr...emmmm.... Con funziona il post del immagini qua? :help:

Per poter fare overclock con il CCC devi avere attacato alla scheda 8pin+6pin...comunque secondo me inutile, anche perchè ti basta un rivatuner l'ultima versione per potere fare OC con la 2900 e controllare la ventola ;)

mtk
01-08-2007, 12:55
Ciao a tutti .
Sono nuovo qua e ho appende montato il mio HD 2900xt .
Avevo un sacco di problemi con il CCC .:mad: .
Ma alla fine Prima va installato il driver che viene con la bestia poi il update (http://support.ati.com/ics/support/default.asp?deptID=894) driver per la bestia poi il nuovo driver 7.7 .
Adesso vedo il CCC . Ma non ho più la possibilità di un over Clock con il CCC, quello cera prima con la mia XT1950pro .:boh:
Eeerrr...emmmm.... Con funziona il post del immagini qua? :help:

:mbe: ......traduzione please... :D

M4R1|<
01-08-2007, 13:02
La limitazione della CPU interviene allorquando la GPU non risulta essere sfruttata al 100%.
Esempio:
Se una scheda video riesce a gestire un applicativo videoludico a 50FPS alla risoluzione di 1920x1200 e filtri abilitati e la CPU riesce a gestire, per lo stesso gioco 120FPS (ad esempio per la gestione dell'AI o della fisica), il sistema è GPU limited.
Con la stessa scheda video abbassando la risoluzione (ad esempio 1680x1050) e magari disabilitando i filtri supponi adesso che gli FPS della GPU salgano a 140FPS, mentre la CPU dovendo gestire comunque sempre le stesse operazioni, rimanga a 120FPS. Ebbene in questo caso sarà la CPU a rallentare il sistema determinando il problema conosciuto come CPU limited.
NM.

a ok, Grazie:) come sempre qui nn si finisce mai di imparare

+Lonewolf+
01-08-2007, 13:06
infatti.... ;)

poi cioè... :sob: guardate sti test dx10 :asd:

http://img174.imageshack.us/img174/4392/dx1010x7jj5.png

http://img174.imageshack.us/img174/986/dx1010x7aayt3.png

vabbè.... cmq è solo una beta...:asd: spero che le prestazioni migliorino :sob: :sob: :sob:

fake vecchio e stravecchio;)

3DMark79
01-08-2007, 13:33
Ragazzi avete visto la nuova Asus HD2900XT a liquido...
http://www.dinoxpc.com/News/news.asp?ID_News=12955&What=News
che prezzo avrà?:confused:

fustacchione90
01-08-2007, 14:07
IMHO 550€....xo a me garba di piu la sapphire toxic a liquido :O

Nos89
01-08-2007, 14:09
IMHO 550€....xo a me garba di piu la sapphire toxic a liquido :O

cmq sto liquido......abbassa si le temperature ma cazzo è cmq dotato di ventola che fa cmq un minimo rumore....IHMO non ne vale la pena...sopratutto per il prezzo credo vicino alla Ultra

3DMark79
01-08-2007, 14:23
mmmh effettiavamente un pò eccessivo 550E come prezzo!:O

Nos89
01-08-2007, 14:30
mmmh effettiavamente un pò eccessivo 550E come prezzo!:O

manco morto darei 550€ per una scheda video....neanche fosse una 8800GX2:mbe: :muro:

GunnyITA
01-08-2007, 14:32
qualcuno di voi mi puo' aiutare? cosi al piu' presto metto anche io i miei punteggi sopra? :D

:sofico:

http://www.hwupgrade.it/forum/showthread.php?t=1523399

Iantikas
01-08-2007, 14:44
qualcuno di voi mi puo' aiutare? cosi al piu' presto metto anche io i miei punteggi sopra? :D

:sofico:

http://www.hwupgrade.it/forum/showthread.php?t=1523399

aggiungi la stringa "-nosysteminfo" alla voce destinazione ke ti appare andando nelle proprietà delle'seguibile del 3dmark06 (oppure se mi passi il tuo indirizzo d msn ti passo un paio d file ke ti consentono d farlo partire normalmente)...[una brevissima ricerca cmq ti avrebbe portato in 3 sec alla soluzione del problema]

...i 240mb d ram occupata son + o - normali con il ccc installato...

...aggiorna stalker all'ultima patch...x i primi minuti d gioco è mormale ke t faccia un pò d stuttering...se xò continua a farlo ininterrottamete mi spiace sei stato sfortunato (ad alcuni capita, nn ho mai capito xkè)...

...x lo "sfarfallio flash" può capitare na volta ogni tanto...evita d pensarci :D ...ciao

Mister Tarpone
01-08-2007, 14:47
fake vecchio e stravecchio;)

è del 16 luglio ;)

Nos89
01-08-2007, 14:49
è del 16 luglio ;)

vabbe alla fine non è colpa loro se la 8600GTS spinge di più:asd:

Pat77
01-08-2007, 14:50
Ragazzi avete visto la nuova Asus HD2900XT a liquido...
http://www.dinoxpc.com/News/news.asp?ID_News=12955&What=News
che prezzo avrà?:confused:

Esteticamente è bella, una domanda, non ho mai avuto il liquido ma sento amici che spesso devono fare rabbocchi ;), in questo caso la manutenzione richiede di aprire continuamente il case?

3DMark79
01-08-2007, 14:51
manco morto darei 550€ per una scheda video....neanche fosse una 8800GX2:mbe: :muro:

Quoto, già mi sembrano eccessive 350Euro per una scheda video figuriamoci 550E!:mad:

Mister Tarpone
01-08-2007, 14:52
vabbe alla fine non è colpa loro se la 8600GTS spinge di più:asd:

:sbonk:

cmq non è un fake ;) ma con sti soliti problemi di driver.... la 2900 è imbarazzante ;)

...ma anch'io son sicuro che migliorerà sicuramente ;)

Nos89
01-08-2007, 14:56
:sbonk:

cmq non è un fake ;) ma con sti soliti problemi di driver.... la 2900 è imbarazzante ;)

...ma anch'io son sicuro che migliorerà sicuramente ;)

anche le 8800 fanno abbastanza pena però:what:

3DMark79
01-08-2007, 14:57
Esteticamente è bella, una domanda, non ho mai avuto il liquido ma sento amici che spesso devono fare rabbocchi ;), in questo caso la manutenzione richiede di aprire continuamente il case?

Sinceramente neanche io,cmq penso che la manutenzione possa dipendere dal liquido del radiatore che sia sempre a livello (non penso venga sostituito) e controllare il perfetto funzionamento della pompa.Poi dipende dove vanno installati il radiatore e la vaschetta e se stanno all'esterno non penso ci sia bisogno di aprire il case.
Penso anche che se i tubi siano corti da non poter installare il radiatore e vaschetta fuori si possano mettere dei tubicini più lunghi per portarli all'esterno ovviamente aggiungendo un pò di liquido in più.;)

Pat77
01-08-2007, 15:00
Sinceramente neanche io,cmq penso che la manutenzione possa dipendere dal liquido del radiatore che sia sempre a livello (non penso venga sostituito) e controllare il perfetto funzionamento della pompa.Poi dipende dove vanno installati il radiatore e la vaschetta e se stanno all'esterno non penso ci sia bisogno di aprire il case.;)

Un tempo ricordo di aver letto una recensione di un prodotto simile, mi pare della stessa asus, che doveva essere controllato aprendo il case. Questo sarebbe, imho, uno sbattimento peggiore di un po' di rumore peraltro solo in full load.

3DMark79
01-08-2007, 15:04
anche le 8800 fanno abbastanza pena però:what:

A quanto pare anche voi con le 8800 avete dei bei gratta capi con cali improvvisi di frame in alcuni giochi in maniera pazzesca vero!?!:read:

Mister Tarpone
01-08-2007, 15:06
anche le 8800 fanno abbastanza pena però:what:

si infatti... fanno tutte cagare... parliamoci chiaro :) !!

ma sarà perchè è una beta???:stordita:


mahhh... :fagiano:

3DMark79
01-08-2007, 15:07
Un tempo ricordo di aver letto una recensione di un prodotto simile, mi pare della stessa asus, che doveva essere controllato aprendo il case. Questo sarebbe, imho, uno sbattimento peggiore di un po' di rumore peraltro solo in full load.

Concordo!
Non penso che il prezzo di un liquido valga la candela.:asd:

+Lonewolf+
01-08-2007, 15:08
:sbonk:

cmq non è un fake ;) ma con sti soliti problemi di driver.... la 2900 è imbarazzante ;)

...ma anch'io son sicuro che migliorerà sicuramente ;)

su vista non si vedono le scritte con la 2900...non capisco come l'abbiano testata...:confused:

safendi
01-08-2007, 15:10
A quanto pare anche voi con le 8800 avete dei bei gratta capi con cali improvvisi di frame in alcuni giochi in maniera pazzesca vero!?!:read:

no x nulla

3DMark79
01-08-2007, 15:12
no x nulla

Scusami e questo cosa è?
http://www.hwupgrade.it/forum/showthread.php?t=1514932

MaRtH
01-08-2007, 15:12
si infatti... fanno tutte cagare... parliamoci chiaro :) !!

ma sarà perchè è una beta???:stordita:


mahhh... :fagiano:


E da mesi che lo dico anche io, 'ste varie G80 e R600 "nate per DX10", quando verranno messe alla prova faranno relativamente tutte pena...

Next-Gen una sega, ditemi voi se io devo comprare una VGA da 500€ che quando gli faccio fare ciò per cui è nata (DX10) fa cacare...

Non esiste...

E lo ripeto per la 57° volta, le VERE VGA "Next-Gen" (come va tanto di moda dire adesso) non sono di certo R600 e G80...

safendi
01-08-2007, 15:15
Scusami e questo cosa è?
http://www.hwupgrade.it/forum/showthread.php?t=1514932

a be con la gts 320, io ho la gtx :D

Marko#88
01-08-2007, 15:16
Scusami e questo cosa è?
http://www.hwupgrade.it/forum/showthread.php?t=1514932

non capita a tutti...io ad esempio non ho problemi...;)

3DMark79
01-08-2007, 15:18
a be con la gts 320, io ho la gtx :D

Se leggi bene c'è anche la tua!:read:
Probabilmente sarai stato fortunato?!:ciapet:
O non hai constatato?

Ps:Marko#88 meno male che non siete tutti!:D

safendi
01-08-2007, 15:19
Se leggi bene c'è anche la tua!:read:
Probabilmente sarai stato fortunato?!:ciapet:
O non hai constatato?

azz non ancora constatato, ce l'ho da novembre 2006 :D

appleroof
01-08-2007, 15:20
E da mesi che lo dico anche io, 'ste varie G80 e R600 "nate per DX10", quando verranno messe alla prova faranno relativamente tutte pena...

Next-Gen una sega, ditemi voi se io devo comprare una VGA da 500€ che quando gli faccio fare ciò per cui è nata (DX10) fa cacare...

Non esiste...

E lo ripeto per la 57° volta, le VERE VGA "Next-Gen" (come va tanto di moda dire adesso) non sono di certo R600 e G80...

In DirectX 10, su sistema nVidia e sotto sistema operativo Windows Vista 64 bit, World in Conflict si comporta perfettamente, a patto di provvedere all'installazione degli ultimi driver (beta) nVidia.

Gli effetti particellari, tuttavia, sono quelli che colpiscono maggiormente. Il fumo che scaturisce dai vari attacchi, dai sistemi di occultamento, in seguito all'esplosione della bomba nucleare è straordinariamente dettagliato ed efficace per conferire quella sensazione di realismo generale che è certamente propria di World in Conflict. A tutto questo vanno aggiunte le unità che, sparse sulla mappa, si danno battaglia in punti differenti; e le stupende superfici d'acqua, le quali riflettono ogni elemento che le sta intorno.

World in Conflict colpisce anche dal punto di vista grafico, grazie ad un motore DirectX 10 scalabile e assolutamente non pesante. Consistenza poligonale, ottimi effetti particellari, gestione di una moltitudine di unità, riproduzione perfetta di elementi architettonici e naturalistici sono i punti cardine della tecnologia messa a punto da Massive Entertainment. Una considerazione va fatta anche in relazione all'intelligenza artificiale, la quale ci è parsa sufficientemente affinata (lo abbiamo notato nei way point, ovvero nel cammino che le varie unità seguono per portare a compimento gli ordini loro impartiti).

http://www.hwupgrade.it/articoli/videogiochi/1774/world-in-conflict-rts-e-guerra-fredda_6.html

;)

Mister Tarpone
01-08-2007, 15:22
E da mesi che lo dico anche io, 'ste varie G80 e R600 "nate per DX10", quando verranno messe alla prova faranno relativamente tutte pena...

Next-Gen una sega, ditemi voi se io devo comprare una VGA da 500€ che quando gli faccio fare ciò per cui è nata (DX10) fa cacare...

Non esiste...

E lo ripeto per la 57° volta, le VERE VGA "Next-Gen" (come va tanto di moda dire adesso) non sono di certo R600 e G80...

Io prima voglio vedere come girerà bioshock in dx10 su tutte queste schede..che ormai manca poco ;)

qui le prestazioni fanno pena, ma questa alla fine è solo una beta... ;)

3DMark79
01-08-2007, 15:24
azz non ancora constatato, ce l'ho da novembre 2006 :D

Non so con quali giochi non funzioni perfettamente e quali invece hai tu cmq mi pare che ci sia una buona percentuale di infetti da quasta influenza!:D
Cmq buon per voi si vede che avevate il vaccino!:burp:

appleroof
01-08-2007, 15:24
In DirectX 10, su sistema nVidia e sotto sistema operativo Windows Vista 64 bit, World in Conflict si comporta perfettamente, a patto di provvedere all'installazione degli ultimi driver (beta) nVidia.

Gli effetti particellari, tuttavia, sono quelli che colpiscono maggiormente. Il fumo che scaturisce dai vari attacchi, dai sistemi di occultamento, in seguito all'esplosione della bomba nucleare è straordinariamente dettagliato ed efficace per conferire quella sensazione di realismo generale che è certamente propria di World in Conflict. A tutto questo vanno aggiunte le unità che, sparse sulla mappa, si danno battaglia in punti differenti; e le stupende superfici d'acqua, le quali riflettono ogni elemento che le sta intorno.

World in Conflict colpisce anche dal punto di vista grafico, grazie ad un motore DirectX 10 scalabile e assolutamente non pesante. Consistenza poligonale, ottimi effetti particellari, gestione di una moltitudine di unità, riproduzione perfetta di elementi architettonici e naturalistici sono i punti cardine della tecnologia messa a punto da Massive Entertainment. Una considerazione va fatta anche in relazione all'intelligenza artificiale, la quale ci è parsa sufficientemente affinata (lo abbiamo notato nei way point, ovvero nel cammino che le varie unità seguono per portare a compimento gli ordini loro impartiti).

http://www.hwupgrade.it/articoli/videogiochi/1774/world-in-conflict-rts-e-guerra-fredda_6.html

;)

Io prima voglio vedere come girerà bioshock in dx10 su tutte queste schede..che ormai manca poco ;)

qui le prestazioni fanno pena, ma questa alla fine è solo una beta... ;)

:mbe:

oh ma siete ciechi?? :D

Nos89
01-08-2007, 15:25
A quanto pare anche voi con le 8800 avete dei bei gratta capi con cali improvvisi di frame in alcuni giochi in maniera pazzesca vero!?!:read:

si sopratutto con la versione da 320Mb cmq problema si pesante ma da una parte trascurabile
anche se sono incazzato

Mister Tarpone
01-08-2007, 15:25
:mbe:

oh ma siete ciechi?? :D

l'ho visto solo adesso :ops: :ops: :ops:


meglio così ;)

appleroof
01-08-2007, 15:27
l'ho visto solo adesso :ops: :ops: :ops:


meglio così ;)

ok :D :D

cmq chiudiamo l'ot, l'ho postato qui anche se parla solo di Nvidia per rispondere a Marth e perchè credo che quelle notizie possano portare un minimo di ottimismo sul comportamento delle nostre schede dx10 (tutte) ;)

safendi
01-08-2007, 15:28
Non so con quali giochi non funzioni perfettamente e quali invece hai tu cmq mi pare che ci sia una buona percentuale di infetti da quasta influenza!:D
Cmq buon per voi si vede che avevate il vaccino!:burp:

un pò non vuol dire tutte, x esempio io non ho mai sentito nessuno lamentarsi nel thread delle gtx

Pat77
01-08-2007, 15:50
Ma sono solo io che ogni volta che entra qua dentro pensa di aver sbagliato 3d?
Cacchio è snervante, si era appena aperta una parentesi interessante sulla soluzione a liquido, sotterrata da 1000 off topic... che si faccia qualcosa se no tanto vale chiuderlo.

Nos89
01-08-2007, 15:53
Ma sono solo io che ogni volta che entra qua dentro pensa di aver sbagliato 3d?
Cacchio è snervante, si era appena aperta una parentesi interessante sulla soluzione a liquido, sotterrata da 1000 off topic... che si faccia qualcosa se no tanto vale chiuderlo.

infatti sarebbe ora di chiudere questo Tread pieno di SPAM.OFTOPIC e cavolate varie....e se lo dico io che ho spammato ci sarà un motivo:)

zorco
01-08-2007, 15:53
Ma sono solo io che ogni volta che entra qua dentro pensa di aver sbagliato 3d?
Cacchio è snervante, si era appena aperta una parentesi interessante sulla soluzione a liquido, sotterrata da 1000 off topic... che si faccia qualcosa se no tanto vale chiuderlo.
nò non sei l'unico,orami questo 3d è alla deriva..

Shinkaz
01-08-2007, 15:58
io dico una cosa, prima di parlare parlare parlare postare bech ecc ecc... aspettiamo bioshok e poi vediamo come azz si comporta sta scheda... anke io sn rimasto un po deluso x via dei drivers nn ottimizzati, ma sn fiducioso... attendo, di game dx10 x ora nn ne stanno tolto lost planet ke x vista e ati è ottimizzato da cani secondo me. aspettiamo bio e poi vedremo i test. i 3dmark sn inutili, cosi le beta ecc ecc. ci vogliono prove sostanziose x giudicare e parlare.

ASPETTATE.:)

overjet
01-08-2007, 16:21
Senza considerare che siamo già alla beta delle directX 10.1 :D

http://www.hwupgrade.it/news/software/microsoft-propone-directx-101-in-beta_22186.html

Nos89
01-08-2007, 16:28
Senza considerare che siamo già alla beta delle directX 10.1 :D

http://www.hwupgrade.it/news/software/microsoft-propone-directx-101-in-beta_22186.html

mi sta venendo voglia di buttarmi di sotto neppure un caxxo di giochi DX10 e Bill gia rompe per le DX10.1 sono indignato se continua cosi e la fine...
basti ricordare Halo2 solo for Windows Vista e DX10....e poi la grafica è DX8 a dir tanto:doh:

Shinkaz
01-08-2007, 16:42
Senza considerare che siamo già alla beta delle directX 10.1 :D

http://www.hwupgrade.it/news/software/microsoft-propone-directx-101-in-beta_22186.html

boh.. qui si propone le dx 10.1 e delle 10 nn si ha un gioco ottimizzato.. boh... cose da pazzi....

anke lo shader 4.0, e si passa a quello 4.1...

l'implementazione audio forse è una buona cosa...

Defragg
01-08-2007, 16:50
basti ricordare Halo2 solo for Windows Vista e DX10....e poi la grafica è DX8 a dir tanto:doh:

Halo 2 è stato sviluppato su Xbox, quindi con l'NV2A, che è un'evoluzione del NV25, chip DX8.1 :)

Nos89
01-08-2007, 16:55
Halo 2 è stato sviluppato su Xbox, quindi con l'NV2A, che è un'evoluzione del NV25, chip DX8.1 :)

appunto praticamente un gioco basato su una GeForce3 Ti200....ti rendi conto...e per giocare Vista e DX10...ste cose mi mandano il sangue al cervello

Shinkaz
01-08-2007, 16:57
appunto praticamente un gioco basato su una GeForce3 Ti200....ti rendi conto...e per giocare Vista e DX10...ste cose mi mandano il sangue al cervello

chiedilo a zio bill :sofico: :sofico: :sofico:

Mister Tarpone
01-08-2007, 16:57
appunto praticamente un gioco basato su una GeForce3 Ti200....ti rendi conto...e per giocare Vista e DX10...ste cose mi mandano il sangue al cervello

per giocarlo al max basta anche una scheda dx9 come la x1650pro... lo scandalo sta nel poterlo usare solo su win. vista :doh:

oldbrand7
01-08-2007, 17:00
appunto praticamente un gioco basato su una GeForce3 Ti200....ti rendi conto...e per giocare Vista e DX10...ste cose mi mandano il sangue al cervello

NOS89 hai la casella piena!!!!!!

:D

che vuoi fare riguardo al winchester 3000+ ??

M4R1|<
01-08-2007, 18:45
E da mesi che lo dico anche io, 'ste varie G80 e R600 "nate per DX10", quando verranno messe alla prova faranno relativamente tutte pena...

Next-Gen una sega, ditemi voi se io devo comprare una VGA da 500€ che quando gli faccio fare ciò per cui è nata (DX10) fa cacare...

Non esiste...

E lo ripeto per la 57° volta, le VERE VGA "Next-Gen" (come va tanto di moda dire adesso) non sono di certo R600 e G80...

e chi ti dice che nn potrà essere R600 e/o G80? fino a prova contraria queste schede sono state testate con game mal pacciati dx10 e con driver totalmente immaturi

Nos89
01-08-2007, 19:04
e chi ti dice che nn potrà essere R600 e/o G80? fino a prova contraria queste schede sono state testate con game mal pacciati dx10 e con driver totalmente immaturi

Quoto.sono certo che con quasi tutte le schede DX10 8800/2900 si potranno godere i giochi a 1280 almeno...sono pur sempre di fascia alta e molto potenti..sarebbe uno scandalo il contrario:rolleyes:

M4R1|<
01-08-2007, 19:15
Quoto.sono certo che con quasi tutte le schede DX10 8800/2900 si potranno godere i giochi a 1280 almeno...sono pur sempre di fascia alta e molto potenti..sarebbe uno scandalo il contrario:rolleyes:

è quello che dico io, cioè è assurdo che chi compra oggi una 8800 o una 2900, cioè le schede più veloci in commercio a oggi, nn possa giocare tra 1 o 2 mesi a giochi proggettati per girare su queste schede. qualcuna molti post indietro l'aveva detto: allora queste schede sono Dx9, cioè ce le hanno vendute Dx10 e le Dx10 ce le hanno letteralmente messe... cioè secondo me è assurdo:mad:

Nos89
01-08-2007, 19:21
è quello che dico io, cioè è assurdo che chi compra oggi una 8800 o una 2900, cioè le schede più veloci in commercio a oggi, nn possa giocare tra 1 o 2 mesi a giochi proggettati per girare su queste schede. qualcuna molti post indietro l'aveva detto: allora queste schede sono Dx9, cioè ce le hanno vendute Dx10 e le Dx10 ce le hanno letteralmente messe... cioè secondo me è assurdo:mad:

impossibile IHMO
;) e lo spero vivamente

M4R1|<
01-08-2007, 19:42
impossibile IHMO
;) e lo spero vivamente

nn sei l'unico che lo spera, tutti noi possessori speriamo in una ottimizzazione nei driver, visto che sulla carta tutte due le schede (chi più chi meno) hanno i conto per far andare le dx10

Nos89
01-08-2007, 19:45
nn sei l'unico che lo spera, tutti noi possessori speriamo in una ottimizzazione nei driver, visto che sulla carta tutte due le schede (chi più chi meno) hanno i conto per far andare le dx10

considera che poi abbiamo anche un margine molto alto in oc con BUS cosi elevati per le memorie:)

M4R1|<
01-08-2007, 19:50
considera che poi abbiamo anche un margine molto alto in oc con BUS cosi elevati per le memorie:)

:sperem:

Tidus.hw
01-08-2007, 21:10
considera che poi abbiamo anche un margine molto alto in oc con BUS cosi elevati per le memorie:)

wtf? :stordita:

Pat77
01-08-2007, 22:41
Dx10 è solo un elenco di specifiche, in generale si dice che a parità di dettaglio siano leggermente migliori di dx9, più facili da programmare e che aprano il campo alla standarizzazione dell'hw video, e questo è anche vero, solo che nascono in un momento di transizione assoluta, tra gpu dx10, cpu quad core, ram ddr3 e sistemi operativi a 64 bit completamente nuovi, ci vorrà del tempo per vedere il potenziale di hd2900xt, oggi si raccolgono solo le briciole, e mi ricorda terribilmente radeon 8500, che nacque nello stesso identico panorama con le stesse identiche problematiche.

masicuro
01-08-2007, 23:02
si ma a quei tempi la 8500 su carta aveva specifiche così superiori alle geffo 4titanium? cmq poi alla fine erano meglio le titanium mi sembra:stordita:

masicuro
01-08-2007, 23:03
cmq io spero che con i prossimi driver la tirino su bene la2900.. per quanto riguarda le ROPS? non le dovevano abilitare?

Quoziente
02-08-2007, 08:20
cmq io spero che con i prossimi driver la tirino su bene la2900.. per quanto riguarda le ROPS? non le dovevano abilitare?

Personalmente ne ho sentite di cozze e di crude; che stavano riscrivendo da zero i drivers, che abilitavano le ROPS, che dai prossimi Catalyst l'intero team ATI si sarebbe dedicato alla serie HD "abbandonando" la serie X... Vai a sapere cosa c'é di vero...:confused:

Pat77
02-08-2007, 08:24
si ma a quei tempi la 8500 su carta aveva specifiche così superiori alle geffo 4titanium? cmq poi alla fine erano meglio le titanium mi sembra:stordita:

Geforce 3 ti 200-500, aveva specifiche diverse e promettenti, che poi col tempo hanno pagato.

M4R1|<
02-08-2007, 08:32
Personalmente ne ho sentite di cozze e di crude; che stavano riscrivendo da zero i drivers, che abilitavano le ROPS, che dai prossimi Catalyst l'intero team ATI si sarebbe dedicato alla serie HD "abbandonando" la serie X... Vai a sapere cosa c'é di vero...:confused:

una cosa è vera: sicuramente adesso si concentreranno sulla serie HD, perché si saranno resi conto che seno perderanno una marea di quote di mercato.
anzi a dir la verità spero proprio che con i 7.8 cioè quelli di agosto ci siano netti miglioramenti, solo perché il 24 esce bioshock, e ati sicuramente nn vuole perdere la faccia, e vedrai che prima che esca crysis sicuramente compariranno degli hotfix o delle beta ufficiali 7.9 che miglioreranno le cose. se invece nn lo faranno ho proprio impressione che tanta gente si farà ancora una più pessima idei di questa scheda.

Quoziente
02-08-2007, 08:38
una cosa è vera: sicuramente adesso si concentreranno sulla serie HD, perché si saranno resi conto che seno perderanno una marea di quote di mercato.
anzi a dir la verità spero proprio che con i 7.8 cioè quelli di agosto ci siano netti miglioramenti, solo perché il 24 esce bioshock, e ati sicuramente nn vuole perdere la faccia, e vedrai che prima che esca crysis sicuramente compariranno degli hotfix o delle beta ufficiali 7.9 che miglioreranno le cose. se invece nn lo faranno ho proprio impressione che tanta gente si farà ancora una più pessima idei di questa scheda.

Beh, visto che EA programma di rilasciare Crysis a novembre si parlerà già di Catalyst 7.11 (o 7.12 beta...).
Speriamo si diano una svegliata!

Pat77
02-08-2007, 08:51
cmq io spero che con i prossimi driver la tirino su bene la2900.. per quanto riguarda le ROPS? non le dovevano abilitare?

Il fsaa viene volutamente fatto via shaders, credo che si concentreranno nell'ottimizzazione di questa modalità.

SamCapone
02-08-2007, 08:58
Per poter fare overclock con il CCC devi avere attacato alla scheda 8pin+6pin...comunque secondo me inutile, anche perchè ti basta un rivatuner l'ultima versione per potere fare OC con la 2900 e controllare la ventola ;)

Ciao Chief.
Ho attaccato due 6pin che viene dal mio Maxima Power da 600W.
Nella scatola del 2900 non cera un 8Pin ma due 6pin . :stordita: .
E meglio avere un 8 pin?
Chiedo scusa ma il mio italiano non e perfetto .:fagiano:

GunnyITA
02-08-2007, 09:01
chi mi da' una mano qui?

http://www.hwupgrade.it/forum/showthread.php?t=1110519&page=113


Al secondo test, con stavolta tutte le prove, anche non spuntate, a 1280 x 1024 ho fatto 10300 circa...


ditemi voi come impostare in maniera corretta il test e poi posto uno screen del test finale.

Sti punteggi mi sembrano strani...

Quoziente
02-08-2007, 09:04
Edit: Modifico il mio post perché non centra una mazza con HD2900XT

Pat77
02-08-2007, 09:10
Ma sta serie HD è proprio sfigata!

Bios difettosi su schede HD2400 e HD2600...
http://www.hwupgrade.it/news/skvideo/schede-radeon-hd-2400-e-2600-con-bios-difettosi_22188.html

E ovviamente postiamolo qui, nel 3d di hd2900, ci sto perdendo la speranza.

Quoziente
02-08-2007, 09:14
E ovviamente postiamolo qui, nel 3d di hd2900, ci sto perdendo la speranza.

Ops! Hai ragione! :muro: Edito... Tu edita il quote altrimenti ritorniamo off topic...

3DMark79
02-08-2007, 09:44
chi mi da' una mano qui?

http://www.hwupgrade.it/forum/showthread.php?t=1110519&page=113


Al secondo test, con stavolta tutte le prove, anche non spuntate, a 1280 x 1024 ho fatto 10300 circa...


ditemi voi come impostare in maniera corretta il test e poi posto uno screen del test finale.

Sti punteggi mi sembrano strani...

I test al 3Dmark di solito vengono sempre fatti a default senza toccare nulla.

GunnyITA
02-08-2007, 09:47
Ciao Chief.
Ho attaccato due 6pin che viene dal mio Maxima Power da 600W.
Nella scatola del 2900 non cera un 8Pin ma due 6pin . :stordita: .
E meglio avere un 8 pin?
Chiedo scusa ma il mio italiano non e perfetto .:fagiano:

I test al 3Dmark di solito vengono sempre fatti a default senza toccare nulla.



Voglio essere orgoglioso della mia scheda :ciapet: . Cosa devo impostare per fare il test correttamente? La prima volta m'ha dato 9870 lanciando il 3d mark così com'era. La seconda volta ho aggiunto le spunte alle cose che mancavano, rilanciando il test e totalizzando 10300 e rotti

3DMark79
02-08-2007, 09:49
Ciao Chief.
Ho attaccato due 6pin che viene dal mio Maxima Power da 600W.
Nella scatola del 2900 non cera un 8Pin ma due 6pin . :stordita: .
E meglio avere un 8 pin?
Chiedo scusa ma il mio italiano non e perfetto .:fagiano:


Non ti serve l'8pin a meno che tu non voglia fare overclock con l'overdrive (si abilita con 8pin) utilizzando i driver della scheda.Ma puoi sempre benissimo usare altri programmi tipo Rivatuner.:fagiano:

3DMark79
02-08-2007, 09:54
Voglio essere orgoglioso della mia scheda :ciapet: . Cosa devo impostare per fare il test correttamente? La prima volta m'ha dato 9870 lanciando il 3d mark così com'era. La seconda volta ho aggiunto le spunte alle cose che mancavano, rilanciando il test e totalizzando 10300 e rotti

Non devi spuntare nulla ne antialiasing ne anisotropico e nient'altro è lascialo a 1280x1024 se è il 3DMark06.

GunnyITA
02-08-2007, 10:01
Non devi spuntare nulla ne antialiasing ne anisotropico e nient'altro è lascialo a 1280x1024 se è il 3DMark06.

imposto anche quelli altri test non spuntati? o lascio a default quelli che ci sono quando parte il programma?

3DMark79
02-08-2007, 10:10
imposto anche quelli altri test non spuntati? o lascio a default quelli che ci sono quando parte il programma?

Non ricordo adesso tutti quali siano,cmq devi lasciarlo esattamente come ti da i settaggi quando lo installi e fai partire il programma,capito?ciao:cool:

-Feanor-
02-08-2007, 10:44
leggete questa news molto interessante... http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
;)

johnson
02-08-2007, 11:54
leggete questa news molto interessante... http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
;)

la notizia è molto interessante. Però non cita la fonte...

Non l'ho letto da nessun altra parte...

TecnoWorld8
02-08-2007, 12:03
leggete questa news molto interessante... http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
;)

senz'altro si sono resi conto che se non fanno qualcosa, vanno alla deriva completamente, dato che per novembre è attesa la nuova nVidia di fascia alta, che potrebbe dare alla 2900xt un distacco pari a quello che la 8800gtx diede alla 1900xtx...

comunque dubito che RV670 potrà in qualche modo competere con questa scheda; forse però una scheda con due RV670 potrebbe...sempre se ATi, per una volta, si sbriga un po'...

MaRtH
02-08-2007, 12:24
senz'altro si sono resi conto che se non fanno qualcosa, vanno alla deriva completamente, dato che per novembre è attesa la nuova nVidia di fascia alta, che potrebbe dare alla 2900xt un distacco pari a quello che la 8800gtx diede alla 1900xtx...

comunque dubito che RV670 potrà in qualche modo competere con questa scheda; forse però una scheda con due RV670 potrebbe...sempre se ATi, per una volta, si sbriga un po'...


La cosa inquietante è che dicono che questo RV670 potrà addirittura essere più potente e ottimizzato di R600 stesso...

Un pò come se la X1950PRO fosse stata più potente della X1950XTX, boh?

Staremo a vedere, IMHO, ferme restando le premesse, 'sta 2900PRO se la piazzano sulla fascia dei 250€ o meno farà la felicità di mooolti utenti...

Nos89
02-08-2007, 12:31
ho come la vaga idea che R600 sia un po come R520(Ati x1800XT)e fra poco sarà sostituito da un nuovo modello più performante

MaRtH
02-08-2007, 12:34
ho come la vaga idea che R600 sia un po come R520(Ati x1800XT)e fra poco sarà sostituito da un nuovo modello più performante


Potrebbe essere, infatti a pensarci bene anche per R520 le aspettative erano altissime e invece hanno in parte deluso, poi è uscito quel mostro di R580...

Mah...

TecnoWorld8
02-08-2007, 12:34
La cosa inquietante è che dicono che questo RV670 potrà addirittura essere più potente e ottimizzato di R600 stesso...

Un pò come se la X1950PRO fosse stata più potente della X1950XTX, boh?

Staremo a vedere, IMHO, ferme restando le premesse, 'sta 2900PRO se la piazzano sulla fascia dei 250€ o meno farà la felicità di mooolti utenti...

probabilmente con i giochi attuali, quel claim potrebbe essere vero, se aumentano le TMUs e ROPs come dicono. io fin dall'inizio dico che secondo me R600 è stato progettato con un'idea troppo "futuribile" e per questo è stato rimandato ad oltranza (oltre che ovviamente per i problemi tecnici vari). ho letto ieri una prova con lost planet, in cui si vede che nel DX10 la 2900xt va praticamente uguale e spesso addirittura meno rispetto ad una GTS 320MB e questo è davvero molto triste. ok, non si può valutare da un gioco, ma a questo punto, a meno di sconvolgimenti con i driver nuovi, credo che R600 abbia davvero un'architettura poco "versatile".

TecnoWorld8
02-08-2007, 12:36
ho come la vaga idea che R600 sia un po come R520(Ati x1800XT)e fra poco sarà sostituito da un nuovo modello più performante

è quello che dico da molto tempo, ma dalla roadmap di ATi pare che il prossimo high end sarà R700 nel 2008...cmq vedremo, io fino a novembre aspetto e concedo ad ATi il beneficio del dubbio. Ma se per allora esce la scheda nVIdia e ATi non ha fatto "nulla", beh, passerò decisamente al verde e avrò finalmente la scheda top che agogno da mesi

Nos89
02-08-2007, 12:37
Potrebbe essere, infatti a pensarci bene anche per R520 le aspettative erano altissime e invece hanno in parte deluso, poi è uscito quel mostro di R580...

Mah...

che poi alla fine non è che l'X1800XT fa schifo....come il G70(7800GT) soltanto che secondo me la vera svolta si avrà con i modelli successivi in questo caso G71 e R580+ credo si verificherà la stessa cosa per ambedue le parti:)

MaRtH
02-08-2007, 12:40
che poi alla fine non è che l'X1800XT fa schifo....come il G70(7800GT) soltanto che secondo me la vera svolta si avrà con i modelli successivi in questo caso G71 e R580+ credo si verificherà la stessa cosa per ambedue le parti:)


Per questo ho detto in parte, in realtà R520 è stata un'ottima architettura, così come G70 (le X1800XT e le 7800GTX rullavano di brutto)...

Nos89
02-08-2007, 12:46
Per questo ho detto in parte, in realtà R520 è stata un'ottima architettura, così come G70 (le X1800XT e le 7800GTX rullavano di brutto)...

gia sopratutto le GTX512:eek: ....però consumavano uno svario e processo produttivo a 110nm(NVIDIA).....con le 7900GT invece in dissy e il pcb sono la metà cosi come il consumo....e prestazioni più alte:)

TecnoWorld8
02-08-2007, 12:47
Per questo ho detto in parte, in realtà R520 è stata un'ottima architettura, così come G70 (le X1800XT e le 7800GTX rullavano di brutto)...

sì, infatti io non scambierei la mia scheda in firma (che tra l'altro compie un anno tra 3 giorni) con l'attuale midrange ATi o nVidia. una scheda top di 2 generazioni fa è superiore alle attuali 2600xt o 8600gt, per intenderci...

Zodd_Il_nosferatu
02-08-2007, 13:07
visto che nessuno ah testato i catalyst 7.8 beta... guardate

Ok interesting they fixed the AA performance hit, at least in Css as far as I know... Here's my tests with this driver and the 7.7 drivers at 1440x900 all maxed...

7.7
4xAA - 177 fps
8xAA - 153 fps

7.8 beta
4xAA - 198 fps
8xAA - 182 fps

Whats interesting is that if you look and see 8x AA in these drivers runs faster than 4xAA in the old drivers--- and these are only beta drivers, so Awesome job Amd/Ati!!!

Nos89
02-08-2007, 13:11
visto che nessuno ah testato i catalyst 7.8 beta... guardate

Ok interesting they fixed the AA performance hit, at least in Css as far as I know... Here's my tests with this driver and the 7.7 drivers at 1440x900 all maxed...

7.7
4xAA - 177 fps
8xAA - 153 fps

7.8 beta
4xAA - 198 fps
8xAA - 182 fps

Whats interesting is that if you look and see 8x AA in these drivers runs faster than 4xAA in the old drivers--- and these are only beta drivers, so Awesome job Amd/Ati!!!

buono un guadagno di circa 25fps! però sarebbe meglio e più affidabile che un utente con la 2900 faccia i stessi test con il suo pc:)

-Feanor-
02-08-2007, 13:11
visto che nessuno ah testato i catalyst 7.8 beta... guardate

Ok interesting they fixed the AA performance hit, at least in Css as far as I know... Here's my tests with this driver and the 7.7 drivers at 1440x900 all maxed...

7.7
4xAA - 177 fps
8xAA - 153 fps

7.8 beta
4xAA - 198 fps
8xAA - 182 fps

Whats interesting is that if you look and see 8x AA in these drivers runs faster than 4xAA in the old drivers--- and these are only beta drivers, so Awesome job Amd/Ati!!!

se fosse veramente cosi ottimo...infatti avevo letto che nei 7.8 sarebbe stato definitivamente sistemato il source..
http://www.theinquirer.it/2007/07/31/i_catalyst_78_sistemeranno_il_source_engine.html
;)
:sperem:

3DMark79
02-08-2007, 13:16
visto che nessuno ah testato i catalyst 7.8 beta... guardate

Ok interesting they fixed the AA performance hit, at least in Css as far as I know... Here's my tests with this driver and the 7.7 drivers at 1440x900 all maxed...

7.7
4xAA - 177 fps
8xAA - 153 fps

7.8 beta
4xAA - 198 fps
8xAA - 182 fps

Whats interesting is that if you look and see 8x AA in these drivers runs faster than 4xAA in the old drivers--- and these are only beta drivers, so Awesome job Amd/Ati!!!

Con quale gioco è stato testato?

-Feanor-
02-08-2007, 13:17
Con quale gioco è stato testato?

counter strike: source..c'è scritto...;)

3DMark79
02-08-2007, 13:20
counter strike: source..c'è scritto...;)

Grazie,non capivo appunto "css".:D

-Feanor-
02-08-2007, 13:21
:eek:
ragazzi...ma stiamo scherzando...qui si parla gia di dx11 e r800...:eek: :muro:
http://www.hardspell.com/english/doc/showcont.asp?news_id=1130

e qui ancora su r700 ovvero hd300
http://www.hardspell.com/english/doc/showcont.asp?news_id=1123

Nos89
02-08-2007, 13:21
quindi tutti i giochi basati sul motore di Half-Life2 dovrebbero incominciare a spingere a dovere?

3DMark79
02-08-2007, 13:27
:eek:
ragazzi...ma stiamo scherzando...qui si parla gia di dx11 e r800...:eek: :muro:
http://www.hardspell.com/english/doc/showcont.asp?news_id=1130

e qui ancora su r700 ovvero hd300
http://www.hardspell.com/english/doc/showcont.asp?news_id=1123

Anche qui si parlava delle Hd3000:
http://www.dinoxpc.com/News/news.asp?ID_News=12940&What=News
ma se prendiamo in seria considerazione queste new siamo proprio rovinati.:(
Purtroppo sai come è il mondo dell'informatica...corrono come i matti e noi non possiamo starci dietro!:mc:

Nos89
02-08-2007, 13:29
Anche qui si parlava delle Hd3000:
http://www.dinoxpc.com/News/news.asp?ID_News=12940&What=News
ma se prendiamo in seria considerazione queste new siamo proprio rovinati.:(
Purtroppo sai come è il mondo dell'informatica...corrono come i matti e noi non possiamo starci dietro!:mc:

gia ma come si sa da sempre con la HIGH-END della generazione precedente si sta cmq una favola....vedi X1950XTX.7900GTX;)

-Feanor-
02-08-2007, 13:31
Anche qui si parlava delle Hd3000:
http://www.dinoxpc.com/News/news.asp?ID_News=12940&What=News
ma se prendiamo in seria considerazione queste new siamo proprio rovinati.:(
Purtroppo sai come è il mondo dell'informatica...corrono come i matti e noi non possiamo starci dietro!:mc:

si ma mi fa arrabbiare cmq...:muro: ...sembra che si voglia prendere in giro chi ha appena preso una 2900xt continuando a fare rumors su r700 e addirittura r800..:mad:

Nos89
02-08-2007, 13:34
si ma mi fa arrabbiare cmq...:muro: ...sembra che si voglia prendere in giro chi ha appena preso una 2900xt continuando a fare rumors su r700 e addirittura r800..:mad:

infatti è proprio cosi....basta lasciarli parlare e via;)

Free Gordon
02-08-2007, 13:34
x me ora non conviene comprare nulla e aspettare g92 con crysis

direi che hai ragione, anche se mancano ancora più di tre mesi... :cry:

3DMark79
02-08-2007, 13:37
gia ma come si sa da sempre con la HIGH-END della generazione precedente si sta cmq una favola....vedi X1950XTX.7900GTX;)

Infatti a parte le vecchie Geforce MX che non supportavano nulla non penso che ci siano adesso questi problemi.Io quando acquistai la mia vecchia ma fantastica X800GTO2 (è già erano appena uscite le X1600 ma optai per quella)non ho mai avuto grossi problemi di compatibilità a parte qualche caso isolato tipo Rainbow Six Vegas o Colin McRae Dirt riuscivo a giocare tranquillamente magari con qualche particolare in meno dovuto agli shader ma chi se ne frega l'importante era la potenza!:Prrr:

Nos89
02-08-2007, 13:38
Infatti a parte le vecchie Geforce MX che non supportavano nulla non penso che ci siano adesso questi problemi.Io quando acquistai la mia vecchia ma fantastica X800GTO2 (è già erano appena uscite le X1600 ma optai per quella)non ho mai avuto grossi problemi di compatibilità a parte qualche caso isolato tipo Rainbow Six Vegas o Colin McRae Dirt riuscivo a giocare tranquillamente magari con qualche particolare in meno ma chi se ne frega l'importante era la potenza!:Prrr:

anche io ho preferito la X800GTO alla X1600Pro pur sapendo che era SM2 non me ne sono pentito per nulla:D

3DMark79
02-08-2007, 13:49
si ma mi fa arrabbiare cmq...:muro: ...sembra che si voglia prendere in giro chi ha appena preso una 2900xt continuando a fare rumors su r700 e addirittura r800..:mad:

Ti capisco!:(
Se la pensassimo tutti alla stessa maniera e non spendessimo più di 250E per una scheda video vedi come scenderebbero i prezzi delle high-end così da essere più invogliato ad acquistarne una sempre più longeva!Invece adesso ti ritrovi ad acquistare già col dubbio come vada con i driver in futuro,le temperature,gli shader nuovi che usciranno una scheda di circa 350E o 450E che sia per poi accantonarla dopo poco più di un anno.

PS:come le automobili il Pc è un investimento sbagliato imho!:doh:

×§ñåkê×
02-08-2007, 13:55
quindi con i 7.8 definitivi il source engine sarà sistemato?

finalmente :p
certo che alla ati, "velocità" non sanno proprio cosa voglia dire

+Lonewolf+
02-08-2007, 13:56
scusate ma qual'è la fonte dove si indicava il guadagno di fps con AA e i 7.8 beta?

Free Gordon
02-08-2007, 14:16
leggete questa news molto interessante... http://www.dinoxpc.com/News/news.asp?ID_News=12962&What=News
;)


sinceramente penso che sia una tavanata galattica...

l'unico VERO problema di R600 (rispetto alla GTX) è di non avere un hw AA dedicato. Più che variare i rapporti, in una potenziale revision di R600, potrebbero inserire quello e lasciare tutto proporzionato com'è oggi (con un'occhio di riguardo allo shader core).


Poi, se faranno una RV670 con le stesse TMU e ROPs di R600 ma con meno shader unit (mettiamo 48 invece che 64) ma in più hw dedicato all'AA, allora potrebbe essere un'ottima mossa per i giochi attuali e per la fascia media. ;)
Andrebbe a competere molto bene con la GTS320 e anche con la 640 in molti casi.

×§ñåkê×
02-08-2007, 14:21
scusate ma qual'è la fonte dove si indicava il guadagno di fps con AA e i 7.8 beta?

quindi attivano le rops anche?

figo... stì 7.8 porteranno un bel po di migliorie a quanto pare

Free Gordon
02-08-2007, 14:22
quindi tutti i giochi basati sul motore di Half-Life2 dovrebbero incominciare a spingere a dovere?

quelli hanno sempre spinto a dovere... il problema era di un bug della nebbia e altre cose che ora non ricordo.

GunnyITA
02-08-2007, 14:23
ecco i miei risultati con il nuovo treno, posso postarli vero? :D

http://img245.imageshack.us/img245/1383/3dmarkzz9.th.png (http://img245.imageshack.us/my.php?image=3dmarkzz9.png)

http://img182.imageshack.us/img182/7389/3dmark1vd2.th.png (http://img182.imageshack.us/my.php?image=3dmark1vd2.png)


come potete vedere:

Intel core 2 duo E6600 (no overclok)
Gigabyte p965 ds3 3.3
2 x 1 gb ram Corsair pc6400
Sapphire Radeon HD2900XT 512 mb (no overclock)
Alim: 620 watt corsair + 3 ventoline.
Case NZXT Trinity.


Pero' sinceramente mi sembra basso sto punteggio.


La prova della CPU, sul deserto ho fatto 0-1 fps, che schifezza.

Free Gordon
02-08-2007, 14:23
quindi attivano le rops anche?
figo... stì 7.8 porteranno un bel po di migliorie a quanto pare

non credo che attivino nulla perchè non c'è nulla da attivare. :D

-Feanor-
02-08-2007, 14:25
Infatti a parte le vecchie Geforce MX che non supportavano nulla non penso che ci siano adesso questi problemi.Io quando acquistai la mia vecchia ma fantastica X800GTO2 (è già erano appena uscite le X1600 ma optai per quella)non ho mai avuto grossi problemi di compatibilità a parte qualche caso isolato tipo Rainbow Six Vegas o Colin McRae Dirt riuscivo a giocare tranquillamente magari con qualche particolare in meno dovuto agli shader ma chi se ne frega l'importante era la potenza!:Prrr:
stavate parlando di geforce MX...??? :yeah:
:cry:

Ti capisco!:(
Se la pensassimo tutti alla stessa maniera e non spendessimo più di 250E per una scheda video vedi come scenderebbero i prezzi delle high-end così da essere più invogliato ad acquistarne una sempre più longeva!Invece adesso ti ritrovi ad acquistare già col dubbio come vada con i driver in futuro,le temperature,gli shader nuovi che usciranno una scheda di circa 350E o 450E che sia per poi accantonarla dopo poco più di un anno.

PS:come le automobili il Pc è un investimento sbagliato imho!:doh:

purtroppo hai perfettamente ragione...:(

sinceramente penso che sia una tavanata galattica...

l'unico VERO problema di R600 (rispetto alla GTX) è di non avere un hw AA dedicato. Più che variare i rapporti, in una potenziale revision di R600, potrebbero inserire quello e lasciare tutto proporzionato com'è oggi (con un'occhio di riguardo allo shader core).


Poi, se faranno una RV670 con le stesse TMU e ROPs di R600 ma con meno shader unit (mettiamo 48 invece che 64) ma in più hw dedicato all'AA, allora potrebbe essere un'ottima mossa per i giochi attuali e per la fascia media. ;)
Andrebbe a competere molto bene con la GTS320 e anche con la 640 in molti casi.

secondo me non integreranno hw aa dedicato...se hanno scelto la strada orientata all aa via shader se lo terranno cosi...perche anche dal punto di vista del marketing sarebbe come ammettere di aver sbagliato nella loro scheda top di gamma...quindi non inseriranno in una ipotetica revision qualche esclusiva rispetto alla ammiraglia...tanto piu che l'ipotetica pro appartiene ad una fascia inferiore..

carver
02-08-2007, 14:27
ecco i miei risultati con il nuovo treno, posso postarli vero? :D

[img=http://img182.imageshack.us/img182/7389/3dmark1vd2.png] (http://imageshack.us)


[img=http://img182.imageshack.us/img182/7389/3dmark1vd2.png] (http://imageshack.us)
Shot at 2007-08-02


come potete vedere:

Intel core 2 duo E6600 (no overclok)
Gigabyte p965 ds3 3.3
2 x 1 gb ram Corsair pc6400
Sapphire Radeon HD2900XT 512 mb (no overclock)
Alim: 620 watt corsair + 3 ventoline.
Case NZXT Trinity.


Pero' sinceramente mi sembra basso sto punteggio.


La prova della CPU, sul deserto ho fatto 0-1 fps, che schifezza.

non me le visualizza!
metti la SECONDA STRINGA dall'alto!

Pat77
02-08-2007, 14:27
non credo che attivino nulla perchè non c'è nulla da attivare. :D

Ottimizzano il fsaa da shaders però, e penso che il guadagno potrebbe essere paragonabile.

GunnyITA
02-08-2007, 14:30
non me le visualizza!
metti la SECONDA STRINGA dall'alto!


editato

carver
02-08-2007, 14:31
ecco i miei risultati con il nuovo treno, posso postarli vero? :D

http://img245.imageshack.us/img245/1383/3dmarkzz9.th.png (http://img245.imageshack.us/my.php?image=3dmarkzz9.png)

http://img182.imageshack.us/img182/7389/3dmark1vd2.th.png (http://img182.imageshack.us/my.php?image=3dmark1vd2.png)


come potete vedere:

Intel core 2 duo E6600 (no overclok)
Gigabyte p965 ds3 3.3
2 x 1 gb ram Corsair pc6400
Sapphire Radeon HD2900XT 512 mb (no overclock)
Alim: 620 watt corsair + 3 ventoline.
Case NZXT Trinity.


Pero' sinceramente mi sembra basso sto punteggio.


La prova della CPU, sul deserto ho fatto 0-1 fps, che schifezza.

fai quanto me con un leggero overclok...... BHO.....

noto che ANCHE A TE NON RICONOSCE LA CONFIGURAZIONE DI SISTEMA ( CPU, MHZ ECC ECC.. come MAI secondo te?

GunnyITA
02-08-2007, 15:03
A me lo chiedi?
boh....

Gia' a me preoccupa come ottimizzano la grafica di questi test che sono datati """"""2006"""""", e noi abbiamo schede di quasi fine 2007 e ci giri così da culo, figuriamoci poi quello che mi dici te :cry:

Nos89
02-08-2007, 15:05
A me lo chiedi?
boh....

Gia' a me preoccupa come ottimizzano la grafica di questi test che sono datati """"""2006"""""", e noi abbiamo schede di quasi fine 2007 e ci giri così da culo, figuriamoci poi quello che mi dici te :cry:

guarda che non è basso come punteggio 96xx sei in linea sopratutto perchè sei a default:)

Zodd_Il_nosferatu
02-08-2007, 15:06
scusate ma qual'è la fonte dove si indicava il guadagno di fps con AA e i 7.8 beta?

il forum di rage3d :O

Athlon 64 3000+
02-08-2007, 15:25
http://www.rage3d.com/board/showthread.php?t=33897483

infatti si dice che cin i 8.40 rc3 (che sono sempre dei catalist 7.7 più recenti degli ufficiali)danno con AA attivato dei incrementi prestazionali e un'altro dice che Stalker viaggia molto meglio.
Questa sera reinstallo Stalker e lo provo per vedere se va meglio rispetto a un mese fa.

+Lonewolf+
02-08-2007, 15:37
ho fatto un 3dmark con i 7.7 ufficiali su vista e mi da 10206...su xp facevo 10495...300 punti di perdita SO sono tanti...


cmq speriamo che con i 7.8 ufficiali la situazione cambi e non (come spesso è accaduto) che vanno meglio gli hotfix degli ufficiali

Athlon 64 3000+
02-08-2007, 15:45
ho fatto un 3dmark con i 7.7 ufficiali su vista e mi da 10206...su xp facevo 10495...300 punti di perdita SO sono tanti...


cmq speriamo che con i 7.8 ufficiali la situazione cambi e non (come spesso è accaduto) che vanno meglio gli hotfix degli ufficiali

penso che questa volta non lo facciano perchè i catalist 7.8 ufficiali saranno datati dopo gli 8.40 rc 3 che sono dei catalist 7.7 datati 13 luglio

M4R1|<
02-08-2007, 17:13
http://www.rage3d.com/board/showthread.php?t=33897483

infatti si dice che cin i 8.40 rc3 (che sono sempre dei catalist 7.7 più recenti degli ufficiali)danno con AA attivato dei incrementi prestazionali e un'altro dice che Stalker viaggia molto meglio.
Questa sera reinstallo Stalker e lo provo per vedere se va meglio rispetto a un mese fa.

a quanto si può vedere c'è una calo prestazionale del solo 9% passando dall'AA 4x all'8X, impressionante :eek: invece coi 7.7 vi era un 14% be nn è male, oltre che hanno aumentato le prestazioni in generale, visto che dal 4x dei 7.7 al 4x dei 7.8 vi è un aumento del 12% :eek: :eek: mi sa che ati si è svagliata, e nn poco, cmq attendo riscontri anche da voi, visto che io sto per usciree nn posso provarli subito.
Fatemi sapere!!!

×§ñåkê×
02-08-2007, 17:17
imho i 7.8 saranno i veri driver decisivi che stavamo aspettando...

3DMark79
02-08-2007, 17:22
7.8 :sperem:

M4R1|<
02-08-2007, 17:30
imho i 7.8 saranno i veri driver decisivi che stavamo aspettando...

be dai nn siamo troppo ottimisti, nn si sa mai, cmq sicuramente daranno una svolta decisiva.
anzi adesso che mi viene in mente: forse hanno risolto il bug dell' AA sulle ROPs, visti gli incrementi; può essere?

×§ñåkê×
02-08-2007, 17:45
be dai nn siamo troppo ottimisti, nn si sa mai, cmq sicuramente daranno una svolta decisiva.
anzi adesso che mi viene in mente: forse hanno risolto il bug dell' AA sulle ROPs, visti gli incrementi; può essere?

stà scheda se la avrebbero fatta uscire con dei driver dalle stesse capacità dei 7.8 credo che avrebbe avuto + successo :cool:
molti si sono fatti un impressione sbagliata

Defragg
02-08-2007, 17:52
stà scheda se la avrebbero fatta uscire con dei driver dalle stesse capacità dei 7.8 credo che avrebbe avuto + successo :cool:
molti si sono fatti un impressione sbagliata

Beh...se nei magazzini le schede si sono esaurite, vorrà dire che la scheda non è un flop come da molti decantato. ;)

-Feanor-
02-08-2007, 18:09
Beh...se nei magazzini le schede si sono esaurite, vorrà dire che la scheda non è un flop come da molti decantato. ;)

infatti...;) a tal proposito voglio farvi notare questo...;)
I partner di ATI sono deliziati dalle vendite delle HD2000 (http://www.theinquirer.it/2007/07/31/i_partner_di_ati_sono_deliziati_dalle_vendite_delle_hd2000.html)

×§ñåkê×
02-08-2007, 18:12
Beh...se nei magazzini le schede si sono esaurite, vorrà dire che la scheda non è un flop come da molti decantato. ;)

non ho detto che e un flop :p

ma che probabilmente, se fin da subito la scheda avrebbe avuto tali "performance" sarebbe stata meglio accolta da molti, a vedere i primi post della recensione in questo sito... tutti che dicevano fosse un flop...

-Feanor-
02-08-2007, 18:17
non ho detto che e un flop :p

ma che probabilmente, se fin da subito la scheda avrebbe avuto tali "performance" sarebbe stata meglio accolta da molti, a vedere i primi post della recensione in questo sito... tutti che dicevano fosse un flop...

gia...tutti a dire flop...:sob:...chissa perche ora non lo dice piu nessuno eh...:Perfido:
cmq ti prego ×§ñåkê×..fai attenzione ai congiuntivi...se ne spari un altra cosi mi viene un colpo..:eekk: :banned:

:sofico:
:D ;)

×§ñåkê×
02-08-2007, 18:49
gia...tutti a dire flop...:sob:...chissa perche ora non lo dice piu nessuno eh...:Perfido:
cmq ti prego ×§ñåkê×..fai attenzione ai congiuntivi...se ne spari un altra cosi mi viene un colpo..:eekk: :banned:

:sofico:
:D ;)

:asd: si vede che nn sn un asso in grammatica? :p

GunnyITA
02-08-2007, 18:53
....e fu così che anche la mia firma brillo' :ciapet:

×§ñåkê×
02-08-2007, 18:55
....e fu così che anche la mia firma brillo' :ciapet:

non uso la risoluzione 1024x768... ma ho la sensazione che sia fuori regolamento :asd:

Marko#88
02-08-2007, 18:59
gia...tutti a dire flop...:sob:...chissa perche ora non lo dice piu nessuno eh...:Perfido:
cmq ti prego ×§ñåkê×..fai attenzione ai congiuntivi...se ne spari un altra cosi mi viene un colpo..:eekk: :banned:

:sofico:
:D ;)

io non voglio assolutamente flammare...dico solo il mio pensiero...alla sua uscita R600 ha fatto storcere il naso a molti (me compreso)...ora si vede che come scheda è più che valida ma è passato un tot dall'uscita sia di se stessa che della concorrenza...io mi domando? all'AMD che han fatto tutto sto tempo??se si fossero impegnati un po' di più avremmo ben altre cose da dire ora...

GunnyITA
02-08-2007, 18:59
prova adesso... :o

×§ñåkê×
02-08-2007, 19:00
io non voglio assolutamente flammare...dico solo il mio pensiero...alla sua uscita R600 ha fatto storcere il naso a molti (me compreso)...ora si vede che come scheda è più che valida ma è passato un tot dall'uscita sia di se stessa che della concorrenza...io mi domando? all'AMD che han fatto tutto sto tempo??se si fossero impegnati un po' di più avremmo ben altre cose da dire ora...

si sono fusi cn ati... :rolleyes:

è stato questo a rallentare ;)

Marko#88
02-08-2007, 19:03
si sono fusi cn ati... :rolleyes:

è stato questo a rallentare ;)

ok, allora la boiata l'han fatta loro...cioè, non boiata in sè, ma nella situazione ha peggiorato non poco le cose...se sta scheda fosse uscita prima, con driver decenti già all'uscita imho sarebbe stata tutta un'altra storia...:)

+Lonewolf+
02-08-2007, 19:05
la roadmap dei driver è questa


7.8 ottimizzazione HD series

7.9 introduzione nuovo core driver per la serie HD

7.10 finalizzare le prestazioni ad un livello ottimale


questi sono i rumors

TecnoWorld8
02-08-2007, 19:13
non voglio flammare, ci mancherebbe, ma da quando è uscita questa scheda, i possessori non hanno fatto altro che "sperare" in miglioramenti portati dai drivers. ora, io auguro a chi la possiede che tali miglioramenti ci siano e siano consistenti, ma secondo me, quando si spendono tra i 350 ed i 400€ per una scheda, credo che non si dovrebbe "vivere sperando", ma essere ben soddisfatti fin da subito. Poi mi direte che siete comunque soddisfatti, ma sperate sempre in un miglioramento, però davvero non ho mai visto tanti post su speranze future come in questo thread...

Shinkaz
02-08-2007, 19:14
si ma di questo passo dovremmo aspettare circa 3 mesi al max x avere delle prestazioni come si deve... nn è assolutamente normale...

+Lonewolf+
02-08-2007, 19:17
non voglio flammare, ci mancherebbe, ma da quando è uscita questa scheda, i possessori non hanno fatto altro che "sperare" in miglioramenti portati dai drivers. ora, io auguro a chi la possiede che tali miglioramenti ci siano e siano consistenti, ma secondo me, quando si spendono tra i 350 ed i 400€ per una scheda, credo che non si dovrebbe "vivere sperando", ma essere ben soddisfatti fin da subito. Poi mi direte che siete comunque soddisfatti, ma sperate sempre in un miglioramento, però davvero non ho mai visto tanti post su speranze future come in questo thread...

come vedi qua non si vive sperando...ma alla fie i risultati si ottengono...sai, 25fps in + con l'AA non sono male, forse abbiamo fatto bene a sperare in un miglioramento che piano piano sta avvenendo...e cmq su quella fascia di prezzo è in ogni caso il migliore acquisto...poi è ovvio che si spera migliori ulteriormente come sta avvendendo