PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 [41] 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

EvIL-LIFe
10-09-2007, 19:47
la demo di quake wars la sto scaricando anc'io... speriamo sia bello...

Y2J Lionheart
10-09-2007, 19:55
la demo di quake wars la sto scaricando anc'io... speriamo sia bello...

il gioco?
io ero betatester......sembra di giocare ad una mod di battlefield.....
la scarico giusto per vedere come funge la 2900 con i 7.9

micronauta
10-09-2007, 20:00
:D ot....cazzo nn so se provare la demo di quake wars o vedere le puntate inedite dei simpson su italia uno.....:D

khael
10-09-2007, 20:21
scusa fai entrambi...
che hai a fare 2 occhi altrimenti??
:muro: :muro:
:Prrr: :Prrr:

fukka75
10-09-2007, 20:29
rigaz fatemi sapere se recuperate punti ai 3DMark... è di sicuro un metodo veloce per misurare miglioramenti prestazionali

Il fatto che aumenti il punteggio al 3Dmarchio non significa affatto che migliorino le prestazioni con i giochi ;)

Tidus.hw
10-09-2007, 20:40
provato quake wars.

1280x1024 tutto a palla con aa4x, af16x. 30 fps fissi (quasi) sempre.
Raramente si scendeva fino a 20 fps. con massimi di 45 su un server con 25 giocatori.

Ci tengo a sottolineare che il vsync non era attivato nè da driver nè dal gioco, eppure il 90% del tempo mi segnava 30 fps °°

Comunque il gioco non mi sembra un granchè...

khael
10-09-2007, 20:52
provato quake wars.

1280x1024 tutto a palla con aa4x, af16x. 30 fps fissi (quasi) sempre.
Raramente si scendeva fino a 20 fps. con massimi di 45 su un server con 25 giocatori.

Ci tengo a sottolineare che il vsync non era attivato nè da driver nè dal gioco, eppure il 90% del tempo mi segnava 30 fps °°

Comunque il gioco non mi sembra un granchè...

niente...
che batosta :(
immagino io a 1680*1050.....

pioss~s4n
10-09-2007, 20:58
provato quake wars.
eppure il 90% del tempo mi segnava 30 fps °°


ndamo bene.. questo gioco dovrebbe girare su 9800 stando agli sviluppatori. :D

EvIL-LIFe
10-09-2007, 21:05
forse la demo non è ben'ottimizzata :( che palle queste cose...

micronauta
10-09-2007, 21:06
provato quake wars.

1280x1024 tutto a palla con aa4x, af16x. 30 fps fissi (quasi) sempre.
Raramente si scendeva fino a 20 fps. con massimi di 45 su un server con 25 giocatori.

Ci tengo a sottolineare che il vsync non era attivato nè da driver nè dal gioco, eppure il 90% del tempo mi segnava 30 fps °°

Comunque il gioco non mi sembra un granchè...

si ma in un gioco online nn puoi mettere aa 4x e filtro^a 16 dai.....io online filtri li tengo sempre disabilitati....

webbuffa
10-09-2007, 21:10
:) Giocata la demo ora...

1680x1050 AA4x AF16x 30 fps fissi :| come se il v syn non si disattivasse :) anche forzando da CCC :P provo a vedere via ini...

Tidus.hw
10-09-2007, 21:10
si ma in un gioco online nn puoi mettere aa 4x e filtro^a 16 dai.....io online filtri li tengo sempre disabilitati....

era solo per vedere come girava ^^ tanto neanche mi piace il genere di fps...

Tidus.hw
10-09-2007, 21:18
:) Giocata la demo ora...

1680x1050 AA4x AF16x 30 fps fissi :| come se il v syn non si disattivasse :) anche forzando da CCC :P provo a vedere via ini...

ecco siamo in 2, tu hai notato gli artefatti classici causati dalla mancanza di vsync? io no .-. mi sa che resta sempre attivato...

webbuffa
10-09-2007, 21:21
ecco siamo in 2, tu hai notato gli artefatti classici causati dalla mancanza di vsync? io no .-. mi sa che resta sempre attivato...

:) Infatti ... bisognerebbe cambiare l'impo dall'ini... solo che nn lo trovo :D lol

trovato! http://community.enemyterritory.com/forums/showthread.php?t=2042

Iantikas
10-09-2007, 21:25
installati i 7.9...ho potuto fare solo due test finora...dirt e lost planet...almeno alle impo ke uso io (1680x1050 tutto al max 4xAA 16xAF ombre su alto x il primo...1680x1050 16xAF tutto al max x il secondo) nn cambia niente, il framerate rimane identico al decimo...

...nn mi lamento cmq dato ke entrmbi erano migliorati già parekkio con i 7.8...

...ora provo bioshock...ciao


p.s.: avete notato ke con l'ultima patch x lost planet è possibile mettere le ombre su alto anke se si è in win xp (prima su XP le si poteva mettere al max su medio...peccato ke, con i settaggi scritti prima, o metto le ombre su alto o metto l'AA 2x e le lascio su medio ke è come l'ho giocato fino all'ultima patch...questo cmq grazie ai 7.8, xkè prima nn ce nera x l'AA 2x).

p.p.s.: oggi è arrivato l'HR03 x la hd2900xt...peccato ke proprio mentre passava il corriere son andato a comprare le sigarette:oink: :muro: :cry: :doh: :O ...vabbeh si spera ke domani invece vada tutto ok :stordita:

M4R1|<
10-09-2007, 21:35
connesione permattendo (visto che sto scricando a velocità penose :cry: :muro: ) fra circa un oretta potrò iniziare a fare alcuni test.

in tanto Iantikas a te come gire bioshock in dx10? fammi sapere

MonsterMash
10-09-2007, 22:17
provato quake wars.

1280x1024 tutto a palla con aa4x, af16x. 30 fps fissi (quasi) sempre.
Raramente si scendeva fino a 20 fps. con massimi di 45 su un server con 25 giocatori.

Ci tengo a sottolineare che il vsync non era attivato nè da driver nè dal gioco, eppure il 90% del tempo mi segnava 30 fps °°

Comunque il gioco non mi sembra un granchè...

Io credo sia un problema della demo, perchè ho partecipato al beta testing della prima demo, e con tutto al massimo, compresi filtri, a 1280x1024, raramente mi scendeva sotto i 50 fps.
A meno che non hanno appesantito parecchio la grafica (ma non credo) dovrebbe solo essere un problema della demo o dei driver (ma questo non credo, visto che a me andava bene la beta precedente).

Bisognerebbe vedere come va sulle schede nvidia.

Ciao

webbuffa
10-09-2007, 22:58
Io credo sia un problema della demo, perchè ho partecipato al beta testing della prima demo, e con tutto al massimo, compresi filtri, a 1280x1024, raramente mi scendeva sotto i 50 fps.
A meno che non hanno appesantito parecchio la grafica (ma non credo) dovrebbe solo essere un problema della demo o dei driver (ma questo non credo, visto che a me andava bene la beta precedente).

Bisognerebbe vedere come va sulle schede nvidia.

Ciao

:( è senz'altro un problema di V-Sync forzato :asd:. Nvidia presenta lo stesso difetto... appena letto sul thread della 8800GTX :(

Iantikas
11-09-2007, 00:15
in tanto Iantikas a te come gire bioshock in dx10? fammi sapere

Sto ancora con XP....x ora nn ho trovato motivi validi x passare a Vista...

...ciao

Scrambler77
11-09-2007, 00:22
:( è senz'altro un problema di V-Sync forzato :asd:. Nvidia presenta lo stesso difetto... appena letto sul thread della 8800GTX :(

Però non è male dai... a me piace, soprattutto il rendering della vegetazione (anche se questo genere stile battlefield non fa per me)...

thommy87
11-09-2007, 00:23
:( è senz'altro un problema di V-Sync forzato :asd:. Nvidia presenta lo stesso difetto... appena letto sul thread della 8800GTX :(

già..ai letto bene..pure a me sta a 30 frame e non si schioda qualche soluzione?

thommy87
11-09-2007, 00:44
se gioco online pero si sblocca la questione dei 30 frame...boh

M4R1|<
11-09-2007, 05:29
Sto ancora con XP....x ora nn ho trovato motivi validi x passare a Vista...

...ciao

a ok, cmq thk

Catan
11-09-2007, 09:05
a ok, cmq thk

io se riesco oggi pome ho un hd sata da 80gb che mi avanza quasi quasi provo a partizionarlo e mi ci metto sopra sia un vista che un ubuntu.

x la cronaca avete visto quando è diventata odiosa la pagina per scaricare i dvr dal sito amd.ati?

Franx1508
11-09-2007, 09:22
io se riesco oggi pome ho un hd sata da 80gb che mi avanza quasi quasi provo a partizionarlo e mi ci metto sopra sia un vista che un ubuntu.

x la cronaca avete visto quando è diventata odiosa la pagina per scaricare i dvr dal sito amd.ati?

è stupenda

×§ñåkê×
11-09-2007, 09:25
io se riesco oggi pome ho un hd sata da 80gb che mi avanza quasi quasi provo a partizionarlo e mi ci metto sopra sia un vista che un ubuntu.

x la cronaca avete visto quando è diventata odiosa la pagina per scaricare i dvr dal sito amd.ati?

io la trovo carina :p

mordsiger
11-09-2007, 11:48
già..ai letto bene..pure a me sta a 30 frame e non si schioda qualche soluzione?

se c'è il vsync può stare solo a fps pari agli herz del monitor o sottomultipli... cioè se tieni il monitor a 60Hz può fare 60 fps, 30,15,7 etc...
se nn ce la fa a stare a 60 va a 30....fine... per ovviare a questo c'è il triple buffer... che ti fa muovere da 1 a 60 senza problemi, senza multipli o storie varie

M4R1|<
11-09-2007, 12:36
io se riesco oggi pome ho un hd sata da 80gb che mi avanza quasi quasi provo a partizionarlo e mi ci metto sopra sia un vista che un ubuntu.

x la cronaca avete visto quando è diventata odiosa la pagina per scaricare i dvr dal sito amd.ati?

ma no dai, è carina.
cavolo ho pensato: nuova home cata nuovi cata, invece, va be confido nella parola data coi 7.10

mordsiger
11-09-2007, 12:53
che parola hanno dato con i 7.10?

MaRtH
11-09-2007, 13:05
Stessa storia di sempre, escono i 7.9 da nemmeno 24H e già si pensa ai 7.10... :rolleyes:

KJx89
11-09-2007, 13:55
Ciao ragazzi, scusate se faccio un OT, nessuno di voi avrebbe il bridge crossfire che non usa? Lo pago ovviamente.... Sembra che chiuque voglia fare un crossfire con le 2600xt sia penalizzato dal fatto che non lo danno assieme alle sk video, e non si trova da nessuna parte in italia...
Confido nella vostra bontà :D
Saluti
Kappa

Iantikas
11-09-2007, 14:26
HR-03 x R600 arrivato, montato e sottoposto ai primi test...dico subito una cosa ke riassume il tutto in una parola:

COMPRATELO :D ;)


...la fase d'installazione è volata via in un soffio...inizialmente pensavo dovesse essere un pò un casino ma è veramente semplicisssimo, si monta da solo (io l'ho montato nella config ke sul sito thermalright viene denominata "Type 2")...

...tutti i dissi x memoria e mosfet si attaccano x bene con il pad preapplicato...x il dissi vale lo stesso discorso e il tutto da un'imrssione d solidità una volta montato...

...come pasta ho usato la solita AS5...come ventola gli ho affiancato una Enermax Enlobal da 92mm con regolatore ke ne cambia i giri da 1400/2500 (sulla confezione vien dikiarato1000/2500)...con la ventola al minimo (1400rpm) queste son le temp con la skeda a 857/981 durante un Canyon Flight in ripetizione 8 volte a 1680x1050 4xAA/16xAF:

http://img404.imageshack.us/img404/5920/001fo1.th.jpg (http://img404.imageshack.us/my.php?image=001fo1.jpg)


38° in Idle e 54° in Load...


...ora sto testando il nuovo limite in oc (questo screen è il primo test ke ho fatto)...

...col dissi stock con regime d default in identike condizioni (ma a 837mhz sul core ke era il max oc permesso dal dissi originale ora in estate) facevo 55° in Idle a 74° in Load...

...sempre con lo stock ma tenuto fisso al 100% a 857/981 nelle stesse identike condizioni facevo 57° in Load...

...quindi l'HR03 con una 92mm da 1400rpm praticamente inudibile frega lo stock con la ventola al 100% ke è una turbina (anke se d soli 3° ma ke sono un'enormità se visti in relazione al rumore prodotto)...

...ora mi metto a cercare il nuovo limite...e finalmente anke mentre gioco il pc è tornato ad essere silenzioso...

...consigliato a tuttti i possessori d questa skeda, prendetelo, nn ve ne pentirete...ciao ;)

Tidus.hw
11-09-2007, 14:31
ottimo! :D

ma quanto costa?

M4R1|<
11-09-2007, 16:21
che parola hanno dato con i 7.10?

avrebbero fatto:

riscritti i driver da zero ( nn ricordo see per opengl o anche per il resto)
coredriver
risoluzione di bug e ottimizazione di ringbus
ottimizazione per il bus a 512bit
varei ottimizazioni per la hd2900
(se nn ho capito male) correzione di alcuni bug nel ccc
(detto da ×§ñåkê×) risoluzione del bus software che impedisce di fare AA nelle rops.

M4R1|<
11-09-2007, 16:24
HR-03 x R600 arrivato, montato e sottoposto ai primi test...dico subito una cosa ke riassume il tutto in una parola:

COMPRATELO :D ;)


...la fase d'installazione è volata via in un soffio...inizialmente pensavo dovesse essere un pò un casino ma è veramente semplicisssimo, si monta da solo (io l'ho montato nella config ke sul sito thermalright viene denominata "Type 2")...

...tutti i dissi x memoria e mosfet si attaccano x bene con il pad preapplicato...x il dissi vale lo stesso discorso e il tutto da un'imrssione d solidità una volta montato...

...come pasta ho usato la solita AS5...come ventola gli ho affiancato una Enermax Enlobal da 92mm con regolatore ke ne cambia i giri da 1400/2500 (sulla confezione vien dikiarato1000/2500)...con la ventola al minimo (1400rpm) queste son le temp con la skeda a 857/981 durante un Canyon Flight in ripetizione 8 volte a 1680x1050 4xAA/16xAF:

http://img404.imageshack.us/img404/5920/001fo1.th.jpg (http://img404.imageshack.us/my.php?image=001fo1.jpg)


38° in Idle e 54° in Load...


...ora sto testando il nuovo limite in oc (questo screen è il primo test ke ho fatto)...

...col dissi stock con regime d default in identike condizioni (ma a 837mhz sul core ke era il max oc permesso dal dissi originale ora in estate) facevo 55° in Idle a 74° in Load...

...sempre con lo stock ma tenuto fisso al 100% a 857/981 nelle stesse identike condizioni facevo 57° in Load...

...quindi l'HR03 con una 92mm da 1400rpm praticamente inudibile frega lo stock con la ventola al 100% ke è una turbina (anke se d soli 3° ma ke sono un'enormità se visti in relazione al rumore prodotto)...

...ora mi metto a cercare il nuovo limite...e finalmente anke mentre gioco il pc è tornato ad essere silenzioso...

...consigliato a tuttti i possessori d questa skeda, prendetelo, nn ve ne pentirete...ciao ;)

il mio unico commento è: :eek: :eek:

mi potresti fare alcune foto alla scheda nel case? visto che volevo prendrlo anch'io ma sono un po preplesso per il poco spazio che ho dalla 2900 a fondo, e poi hai usato la artc silver 5?

Grazie

×§ñåkê×
11-09-2007, 16:34
HR-03 x R600 arrivato, montato e sottoposto ai primi test...dico subito una cosa ke riassume il tutto in una parola:

COMPRATELO :D ;)




non male ;)

ma non è che mi entusiasmi il fatto che tutti i watt dissipati sotto forma di calore dalla hd2900xt girino per il case :stordita:

meglio come nel dissi stock almeno il calore viene buttato subito fuori, senza creare un microclima tropicale nel case :asd:

Lino P
11-09-2007, 16:37
raga, non fatemi leggere tutto il thread per favore..:)
Qualcuno mi dice in 2 parole:
- come si comporta questa vga rispetto alle 8800
- quali sono i principali bug o controindicazioni all'acquisto
- magari, ciò che ritenete importante sapere...
Grazie in anticipo...;)

thommy87
11-09-2007, 16:46
se c'è il vsync può stare solo a fps pari agli herz del monitor o sottomultipli... cioè se tieni il monitor a 60Hz può fare 60 fps, 30,15,7 etc...
se nn ce la fa a stare a 60 va a 30....fine... per ovviare a questo c'è il triple buffer... che ti fa muovere da 1 a 60 senza problemi, senza multipli o storie varie

grazie ai ragione sei un genio ho risolto i problemi dei giochi che stavano a 30 frame io ti lodo:winner: :winner: :ubriachi: :ubriachi: :ubriachi: :yeah: :yeah: :boxe: :boxe:

DakmorNoland
11-09-2007, 16:55
raga, non fatemi leggere tutto il thread per favore..:)
Qualcuno mi dice in 2 parole:
- come si comporta questa vga rispetto alle 8800
- quali sono i principali bug o controindicazioni all'acquisto
- magari, ciò che ritenete importante sapere...
Grazie in anticipo...;)

Pro:

- E' più veloce delle 8800GTS nel 90% dei giochi DX9 e in tutti quelli DX10.
- Si colloca nella fascia di prezzo della GTS 640MB.
- Nel 3d mark 2006 va pochissimo meno di una 8800GTX, come anche in qualche gioco.
- Ogni release di driver le sue prestazioni migliorano, avvicinandola sempre + alla GTX.

Contro:

- In full consuma poco più di una GTX, quindi davvero molto. Anche se in idle c'è da dire che i consumi sono ottimi visto la fascia in cui si colloca.
- Dissipatore parecchio rumoroso, quando si passa al 3D. Anche se forse è possibile regolare la ventola per diminuire un pò il rumore.
- Scalda molto, però questo vale anche per le concorrenti.
- Richiede un alimentatore migliore rispetto alla GTS. Cmq già con un LC Power Titan gira senza problemi.

Boh spero di nona ver dimenticato nulla. :)

overjet
11-09-2007, 17:03
Per chi ha questa scheda... Ha notato miglioramenti mettendo i nuovi catalyst 7.9 ?!? In cosa ?!?

mordsiger
11-09-2007, 17:05
grazie ai ragione sei un genio ho risolto i problemi dei giochi che stavano a 30 frame io ti lodo:winner: :winner: :ubriachi: :ubriachi: :ubriachi: :yeah: :yeah: :boxe: :boxe:

di niente....

mordsiger
11-09-2007, 17:40
Per chi ha questa scheda... Ha notato miglioramenti mettendo i nuovi catalyst 7.9 ?!? In cosa ?!?

stasera sono a casa......quindi li provo e posto i vari risultati

Lino P
11-09-2007, 18:15
Grazie DakmorNoland... molto esauriente...;)
Se qualcuno a voglia di aggiungere qualcosa, faccia pure...:)

Iantikas
11-09-2007, 18:40
il mio unico commento è: :eek: :eek:

mi potresti fare alcune foto alla scheda nel case? visto che volevo prendrlo anch'io ma sono un po preplesso per il poco spazio che ho dalla 2900 a fondo, e poi hai usato la artc silver 5?

Grazie

si AS5...x la foto te la posso fare solo dal cell...il tempo di mettere phone tools aggiornarlo e la posto...cmq con la ventola occupa 3 slot, mi rimane l'ultimo pci utilizzabile (anke se giusto da una skedina wireless o da altre d occupazione simile xkè altrimenti blokkerebbe il flusso della ventola)...fortunatamente cmq la commando c'ha un pci-e X1 e un pci sopra allo slot pci-e X16 della skeda video e son questi due gli slot ke uso (ke è il motivo x cui l'ho montato nel metodo 2 anzikè 1)...

...ciao

M4R1|<
11-09-2007, 18:53
si AS5...x la foto te la posso fare solo dal cell...il tempo di mettere phone tools aggiornarlo e la posto...cmq con la ventola occupa 3 slot, mi rimane l'ultimo pci utilizzabile (anke se giusto da una skedina wireless o da altre d occupazione simile xkè altrimenti blokkerebbe il flusso della ventola)...fortunatamente cmq la commando c'ha un pci-e X1 e un pci sopra allo slot pci-e X16 della skeda video e son questi due gli slot ke uso (ke è il motivo x cui l'ho montato nel metodo 2 anzikè 1)...

...ciao

ok Grazie ;)

Friz1983
11-09-2007, 21:17
Prima ho provato ad attivare la black box su steam, attivazione effettuata e mi avviseranno tramite mail appena potro scaricarlo in quanto nn ancora disponibile intanto mi hanno regalato day of defeat source.. mi è stato detto che è un contentino che ci danno per l'attesa

M4R1|<
11-09-2007, 22:05
Prima ho provato ad attivare la black box su steam, attivazione effettuata e mi avviseranno tramite mail appena potro scaricarlo in quanto nn ancora disponibile intanto mi hanno regalato day of defeat source.. mi è stato detto che è un contentino che ci danno per l'attesa

esatto :D

bas1800
12-09-2007, 06:22
esatto :D

io ho un problema ragazzi ho attivato il codice qualche mese fa
poi ho scaricato quello in regalo
adesso che ho formattato tutto e ho perso il coupon come faccio a ricevere quel gioco in regalo e il black box ?

overjet
12-09-2007, 07:38
Allora questi nuovi driver come vanno ?!? Migliorie da segnlare ?!?

mordsiger
12-09-2007, 08:26
Allora questi nuovi driver come vanno ?!? Migliorie da segnlare ?!?

nei 3dmark fa + o - uguale, ho provato nwn2 e si sono visti a occhio miglioramenti di fluidità del gioco poi con fraps ho visto che faceva qualche fps in +... altre cose nn le ho ancora provate

berry83
12-09-2007, 08:43
se si sono abbassati i prezzi delle cpu, oramai un q6600 non costa + nulla.... ke stooooorrrrrriiiiiiaaaaa. ma la 2900 xt 1gb cosa cambia dalla 512?

pierluigi86
12-09-2007, 10:47
se si sono abbassati i prezzi delle cpu, oramai un q6600 non costa + nulla.... ke stooooorrrrrriiiiiiaaaaa. ma la 2900 xt 1gb cosa cambia dalla 512?

in niente ha solo memorie gddr4 da 1gb. Le prestazioni sono identiche in quanto non è né la banda passante né il quantitativo di memoria a essere il collo di bottiglia di questa scheda

EvIL-LIFe
12-09-2007, 11:03
GeCube HD2900XT 512MB arrivata. Testing in corso ;)
SONO UFFICIALMENTE DEI VOSTRI RIGAZ!!! :winner:

_Aenea_
12-09-2007, 11:07
GeCube HD2900XT 512MB arrivata. Testing in corso ;)
SONO UFFICIALMENTE DEI VOSTRI RIGAZ!!! :winner:


Eheheh, edita la firma allora! ;-)

EvIL-LIFe
12-09-2007, 11:15
DONE!

overjet
12-09-2007, 11:18
Piano piano con i driver stà migliorando questa scheda... Qualcuno possiede la versione da 1gb ?!?

_Aenea_
12-09-2007, 11:19
DONE!

:cincin:

EvIL-LIFe
12-09-2007, 11:49
primo test: 3DMark06 -> 11360 punti.
appena ho più tempo vedo di ottimizzare un pò il s.o. e di salire un pochino con le frequenze ;)
ottima scheda cmq, in media ho notato il 55% in + di fps rispetto alla 1900xtx

M4R1|<
12-09-2007, 11:59
io ho un problema ragazzi ho attivato il codice qualche mese fa
poi ho scaricato quello in regalo
adesso che ho formattato tutto e ho perso il coupon come faccio a ricevere quel gioco in regalo e il black box ?

è semplice scarica steam, accedi al tuo profilo tramite il tuo user e la tua pass e potrai riscaricare i game associati al tuo account.

M4R1|<
12-09-2007, 11:59
GeCube HD2900XT 512MB arrivata. Testing in corso ;)
SONO UFFICIALMENTE DEI VOSTRI RIGAZ!!! :winner:

mi fa piacere :D

tarabas2
12-09-2007, 12:12
GeCube HD2900XT 512MB arrivata. Testing in corso ;)
SONO UFFICIALMENTE DEI VOSTRI RIGAZ!!! :winner:

Evil ti è uscito il convertitore DVI-HDMI?

nico88desmo
12-09-2007, 12:30
primo test: 3DMark06 -> 11360 punti.
appena ho più tempo vedo di ottimizzare un pò il s.o. e di salire un pochino con le frequenze ;)
ottima scheda cmq, in media ho notato il 55% in + di fps rispetto alla 1900xtx

Puoi scrivere i punteggi di SM3.0, SM2.0 e CPU?

EvIL-LIFe
12-09-2007, 12:34
Evil ti è uscito il convertitore DVI-HDMI?

si! l'unica cosa che poteva essere utile e non mi è uscita è l'adattatore a 8 pin... me ne sono usciti 2 a 6 e 0 a 8... che cosa sciocca da fare. mamma mia non ci posso ancora credere. pezzenti!

BieSseA
12-09-2007, 12:41
primo test: 3DMark06 -> 11360 punti.
appena ho più tempo vedo di ottimizzare un pò il s.o. e di salire un pochino con le frequenze ;)
ottima scheda cmq, in media ho notato il 55% in + di fps rispetto alla 1900xtx


Sti cacchi, è moltissimo 55% in più di FPS eh!!! :eek:
Ovviamente immagino che parliamo di dx9..

EvIL-LIFe
12-09-2007, 13:03
Sti cacchi, è moltissimo 55% in più di FPS eh!!! :eek:
Ovviamente immagino che parliamo di dx9..

si, non installerò vista prima del prossimo anno. o forse anche più tardi ;)

ecco lo screen di 3DMark06:
http://img249.imageshack.us/img249/9581/3dmark06hd2900xtfi2.th.jpg (http://img249.imageshack.us/my.php?image=3dmark06hd2900xtfi2.jpg)

e uno screen di R6V (il gioco che più mi ha "costretto" all'acquisto di una nuova vga):
http://img249.imageshack.us/img249/8214/r6vhd2900xtrj5.th.jpg (http://img249.imageshack.us/my.php?image=r6vhd2900xtrj5.jpg)

che dire rigaz... sono soddisfattissimo. ottima scheda.

wiltord
12-09-2007, 13:25
ottimo score ;)

M4R1|<
12-09-2007, 13:33
si, non installerò vista prima del prossimo anno. o forse anche più tardi ;)

ecco lo screen di 3DMark06:
http://img249.imageshack.us/img249/9581/3dmark06hd2900xtfi2.th.jpg (http://img249.imageshack.us/my.php?image=3dmark06hd2900xtfi2.jpg)

e uno screen di R6V (il gioco che più mi ha "costretto" all'acquisto di una nuova vga):
http://img249.imageshack.us/img249/8214/r6vhd2900xtrj5.th.jpg (http://img249.imageshack.us/my.php?image=r6vhd2900xtrj5.jpg)

che dire rigaz... sono soddisfattissimo. ottima scheda.

Quoto con wiltord.

cmq mi fa piacere che sei soddisfatto ;)

invece te wiltord a quando la prossima VGA? (e su quale pensi di puntare)

khael
12-09-2007, 13:47
Quoto con wiltord.

cmq mi fa piacere che sei soddisfatto ;)

invece te wiltord a quando la prossima VGA? (e su quale pensi di puntare)

ottimo punteggio, meglio di una gtx =)
Wil scommetto casa che comprera qst vga
:Perfido::Perfido::Perfido:

wiltord
12-09-2007, 13:52
in effetti l'idea dell'acquisto si fà sempre più insistente :p

M4R1|<
12-09-2007, 13:53
ottimo punteggio, meglio di una gtx =)
Wil scommetto casa che comprera qst vga
:Perfido::Perfido::Perfido:

bho, aspettiamo una sua risposta.
spero solo che nn dica: come mod nn mi posso sbilanciare

Edit: lol

berry83
12-09-2007, 13:58
ottimo punteggio, meglio di una gtx =)
Wil scommetto casa che comprera qst vga
:Perfido::Perfido::Perfido:

si nel 3dmark va meglio xè non si abilita l'AA altrimenti era sotto, cosa ke succedeva prima con la 1900 e la 7900, dove la 7900 andava meglio ma senza AA, infatti nei giochi era meglio la 1900

Chicco85
12-09-2007, 14:02
Beh dai, non mi lamento... nel 2k6 con 1GB di ram in single channel, cpu a 3,3 Ghz e AA 4x AF 16x faccio 8200 punti sotto vista. Che sono un pò meno di 2000 punti in più di quanto non facessi con la x1900xtx senza filtri... :D

×§ñåkê×
12-09-2007, 14:04
si nel 3dmark va meglio xè non si abilita l'AA altrimenti era sotto, cosa ke succedeva prima con la 1900 e la 7900, dove la 7900 andava meglio ma senza AA, infatti nei giochi era meglio la 1900

ma la 7900 applicava dei filtri scandalosi :asd:

Iantikas
12-09-2007, 14:07
ecco la foto ke m'avevi kiesto...nn so se riesci a capirci qualcosa ma col cell nn so riuscito a fare d meglio...

http://img255.imageshack.us/img255/4226/1109072020br1.th.jpg (http://img255.imageshack.us/my.php?image=1109072020br1.jpg)

...ciao

berry83
12-09-2007, 14:07
ma la 7900 applicava dei filtri scandalosi :asd:

lo so, ma il fatto sta è ke con i filtri la 8800 vola rispetto alla 2900

khael
12-09-2007, 14:14
in effetti l'idea dell'acquisto si fà sempre più insistente :p

ho letto il post su tibur...ekko perche' :D

overjet
12-09-2007, 14:16
lo so, ma il fatto sta è ke con i filtri la 8800 vola rispetto alla 2900

Quindi con i filtri vanno meglio le 8800 ?!?

M4R1|<
12-09-2007, 14:19
ecco la foto ke m'avevi kiesto...nn so se riesci a capirci qualcosa ma col cell nn so riuscito a fare d meglio...

http://img255.imageshack.us/img255/4226/1109072020br1.th.jpg (http://img255.imageshack.us/my.php?image=1109072020br1.jpg)

...ciao

no ok un po' ho capito :) Grazie

Free Gordon
12-09-2007, 14:24
ma la 7900 applicava dei filtri scandalosi :asd:

Ma non è vero, mica erano scandalosi... ;)

La 2900 è stata progettata per fare AA via shader (se avessero avuto spazio per inserire la circuiteria per l'AA nelle rops, l'avrebbero fatto) per questo perde di più di G80 nell'applicare l'AA alla vecchia maniera.

Di contro, potrebbe essere avvantaggiata quando in futuro si applicherà l'AA software, integrato nel motore grafico del gioco.

×§ñåkê×
12-09-2007, 14:30
Ma non è vero, mica erano scandalosi... ;)

La 2900 è stata progettata per fare AA via shader (se avessero avuto spazio per inserire la circuiteria per l'AA nelle rops, l'avrebbero fatto) per questo perde di più di G80 nell'applicare l'AA alla vecchia maniera.

Di contro, potrebbe essere avvantaggiata quando in futuro si applicherà l'AA software, integrato nel motore grafico del gioco.

ma non lo so, avevo letto delle rece delle schede nvidia, e a quanto pare con i filtri hanno raggiunto la decenza appena con le 8800, nelle serie precedenti infatti usavano delle misteriose ottimizzazioni (come il non filtrare con l'anisotropico alcune superfici inclinate), poi queste ottimizzazioni venivano usate anche da ati, ma almeno la resa grafica complessiva di quest'ultima era migliore ;)

berry83
12-09-2007, 14:43
ma non lo so, avevo letto delle rece delle schede nvidia, e a quanto pare con i filtri hanno raggiunto la decenza appena con le 8800, nelle serie precedenti infatti usavano delle misteriose ottimizzazioni (come il non filtrare con l'anisotropico alcune superfici inclinate), poi queste ottimizzazioni venivano usate anche da ati, ma almeno la resa grafica complessiva di quest'ultima era migliore ;)

guarda ke sono ottimi i filtri delle 8800, mica decenza

overjet
12-09-2007, 14:45
Quindi con i filtri vanno meglio le 8800 ?!?

quoto

DjLode
12-09-2007, 14:46
ma non lo so, avevo letto delle rece delle schede nvidia, e a quanto pare con i filtri hanno raggiunto la decenza appena con le 8800, nelle serie precedenti infatti usavano delle misteriose ottimizzazioni (come il non filtrare con l'anisotropico alcune superfici inclinate), poi queste ottimizzazioni venivano usate anche da ati, ma almeno la resa grafica complessiva di quest'ultima era migliore ;)

La prima ad introdurre l'AF dipendente dall'inclinazione delle superfici è stata Ati a partire dalla 9700. La differenza ovviamente si vedeva solo nel caso di particolari inclinazioni mentre era assolutamente indistingubile altrove. I filtri AF di Nvidia sono sempre stati molto buoni, sulla serie 5 erano ottimi (in quanto il filtro veniva applicato sempre e comunque, infatti attivandolo si avevano perdite maggiori che con Ati), sulla serie 6 e 7 hanno introdotto questi filtri "angle dependent" e sulla 8 c'è la possibilità di applicare un full AF.
Per quanto riguarda l'AA invece fino alle gpu vecchie ATI era avanti, se non altro per la programmabilità dei campioni dei pixel presi per applicare il filtro. Ora con G80 Nvidia è andata avanti anche qua. Complessivamente i filtri sono migliori su Nvidia, e francamente mi secca vedere come Ati abbia tirato il freno a mano su una cosa che è da sempre stata il suo cavallo di battaglia.

ceck
12-09-2007, 16:06
Ordinata oggi a 340€.

Tra un pò sarò nel clan.

Ciauz :)

Iantikas
12-09-2007, 16:17
quoto


le 8800 in percentule perdono moltomeno una volta applicati i filtri...nel quadro generale ciò fa si ke la hd2900xtse senza filtri si posiziona a metà strada tra GTS e GTX con i filtri si posiziona ai livelli di una GTS...

...x quanto riguarda invece i filtri...quando se ne parla secondo me si dovrebbe sempre specificare se si sta palrando a livello qualitativo o prestazionale...questo xkè attualmente con R600 e G80 a livello qualitativo così come appare l'AA di nvidia appare quello d ATI...nn ce nessuna differenza (nel normale multisampling)...

...a livello prestazionale incidie meno su G80 ke su R600...

...x quanto riguarda l'AF dal punto di vista qualitativo se in prog appositi si può vedere una lievissimo vantaggio d nivdia andando ad analizzare screen e durante il game nn ce nessuna differenza...

...anke x l'AA x le texture trasparenti dal punto di vista qualitativo stiamo sugli stessi livelli (al max livello qualitativo...mentre le differenze al livello + basso son dovute al metodo differente con cui viene applicato)...


...in sintesi dal punto di vista della qualità sia con MSAA ke con AF ke con l'AA x texture trasparenti G80 e R600 ofrrono la stessa dentica qualità...

...dal punto di vista prestazionale l'impatto su ognuna d queste skede è diverso come è normale ke sia date le caratteristike diverse ke ha ognuna skeda...

...ciao

Catan
12-09-2007, 16:31
La prima ad introdurre l'AF dipendente dall'inclinazione delle superfici è stata Ati a partire dalla 9700. La differenza ovviamente si vedeva solo nel caso di particolari inclinazioni mentre era assolutamente indistingubile altrove. I filtri AF di Nvidia sono sempre stati molto buoni, sulla serie 5 erano ottimi (in quanto il filtro veniva applicato sempre e comunque, infatti attivandolo si avevano perdite maggiori che con Ati), sulla serie 6 e 7 hanno introdotto questi filtri "angle dependent" e sulla 8 c'è la possibilità di applicare un full AF.
Per quanto riguarda l'AA invece fino alle gpu vecchie ATI era avanti, se non altro per la programmabilità dei campioni dei pixel presi per applicare il filtro. Ora con G80 Nvidia è andata avanti anche qua. Complessivamente i filtri sono migliori su Nvidia, e francamente mi secca vedere come Ati abbia tirato il freno a mano su una cosa che è da sempre stata il suo cavallo di battaglia.

mi trovi daccordo in parte.
ati fu la prima ad introdurre il filtro af che dipendeva dagli angoli infatti a determinate angolazioni non veniva applicato ed era un algoritmo già implementato dalla 8500.
riguardo all'aa nvidia già all'epoca delle geforce3 usava il multisampling dove la 8500 usava ancora il supersampling.
fondamentalmente fino alla serie 5 della geforce AA di nvidia non ha subito variazioni fondamentali...
dove ati con r300 invece aveva gia implementato un AA di tipo multisampling con lo stencil compression che dava un effetto di continuita ai colori dell'immagine mentre quelli nvidia staccavano molto.
con la serie 6 nvidia ha iniziato anche lei ad utilizzare un AA con queste correzioni e fondamentalmente entrambi i contendenti si sono fermati qui.
di fatto poi è stata tutta una serie a cercare qualche ottimizazione vedi l'adaptive AA, si è ritornato ad un AF a tutto campo per via dell'aumento della potenza elaborativa...
fondamentalmente poi dipende dalle varie modalità ad esempio un EDGE DETECT AA della hd2900 secondo me è una qualità migliore di tutti gli AA della serie 8 di nvidia.
se invece le vga vengono usate con un tipico aa4x e af8x ormai ma gia dalla serie 6 di nvidia e dalla serie x800 della ati si è in sostanziale parità con immagini dei filtri.
anche se molti continua a dire che la qualità e la nitidezza dell'immagine ati è ancora superiore e posso confermare io stesso dal passaggiod da 8800gts a hd2900.

fondamentalmente credo che siamo arrivati alla saturazione dell'aa classico che ci siamo abbituati dalle dx8.1 in poi e sicuramente il fatto che si possa fare AA in shader quindi elaborare texture gia con AA di default del motore di gioco dovremmo avere una qualità maggiore.
anche se oggettivamente secndo me il modo migliore di fare AA resta ancora quello elaborato sulle 3dfx con i vsa100.

Quoziente
12-09-2007, 16:32
Ordinata oggi a 340€.

Tra un pò sarò nel clan.

Ciauz :)

Ti invidio... 3 mesi fa l'ho pagata 430€...:cry:
Cmq benvenuto...;)
Sbaglio o comincia a vendicchiarsi mica male questa scheda tanto criticata?:)

Per quanto mi riguarda la priorità è l'innalzamento delle prestazioni in DX10, ho giocato a Bioshock senza filtri (ero sotto Vista) e non ne ho sentito la mancanza. Ad alte risoluzioni IMHO l'AA e l'AF non sono così evidenti...

EvIL-LIFe
12-09-2007, 17:15
ho provato a occare un pò.... ho superato facilmente i 12mila punti a 3DMark06... l'unico contro di questa scheda è il dissipatore che fa un rumore infernale... dovrò provvedere al più presto.

l'unico dissipatore diponibile è quello recensito qualche pagina prima? qualcuno sa dirmi dove posso trovarlo a prezzo onesto?

_Aenea_
12-09-2007, 17:23
mi trovi daccordo in parte.
ati fu la prima ad introdurre il filtro af che dipendeva dagli angoli infatti a determinate angolazioni non veniva applicato ed era un algoritmo già implementato dalla 8500.
riguardo all'aa nvidia già all'epoca delle geforce3 usava il multisampling dove la 8500 usava ancora il supersampling.
fondamentalmente fino alla serie 5 della geforce AA di nvidia non ha subito variazioni fondamentali...
dove ati con r300 invece aveva gia implementato un AA di tipo multisampling con lo stencil compression che dava un effetto di continuita ai colori dell'immagine mentre quelli nvidia staccavano molto.
con la serie 6 nvidia ha iniziato anche lei ad utilizzare un AA con queste correzioni e fondamentalmente entrambi i contendenti si sono fermati qui.
di fatto poi è stata tutta una serie a cercare qualche ottimizazione vedi l'adaptive AA, si è ritornato ad un AF a tutto campo per via dell'aumento della potenza elaborativa...
fondamentalmente poi dipende dalle varie modalità ad esempio un EDGE DETECT AA della hd2900 secondo me è una qualità migliore di tutti gli AA della serie 8 di nvidia.
se invece le vga vengono usate con un tipico aa4x e af8x ormai ma gia dalla serie 6 di nvidia e dalla serie x800 della ati si è in sostanziale parità con immagini dei filtri.
anche se molti continua a dire che la qualità e la nitidezza dell'immagine ati è ancora superiore e posso confermare io stesso dal passaggiod da 8800gts a hd2900.

fondamentalmente credo che siamo arrivati alla saturazione dell'aa classico che ci siamo abbituati dalle dx8.1 in poi e sicuramente il fatto che si possa fare AA in shader quindi elaborare texture gia con AA di default del motore di gioco dovremmo avere una qualità maggiore.
anche se oggettivamente secndo me il modo migliore di fare AA resta ancora quello elaborato sulle 3dfx con i vsa100.

Spiegazione superba! ;) ...ma come funzionava il vsa100 della 3dfx? :confused:

wiltord
12-09-2007, 18:15
ho provato a occare un pò.... ho superato facilmente i 12mila punti a 3DMark06... l'unico contro di questa scheda è il dissipatore che fa un rumore infernale... dovrò provvedere al più presto.

l'unico dissipatore diponibile è quello recensito qualche pagina prima? qualcuno sa dirmi dove posso trovarlo a prezzo onesto?

che usi per occare? :)

×§ñåkê×
12-09-2007, 18:27
Spiegazione superba! ;) ...ma come funzionava il vsa100 della 3dfx? :confused:

renderizzava l'immagine a un numero superiore di pixel di quelli effettivamente visualizzati su monitor ;)

Catan
12-09-2007, 18:49
Spiegazione superba! ;) ...ma come funzionava il vsa100 della 3dfx? :confused:

le vga moderne prendono l'immagine di imput (es 1024) la moltiplicano del buffer per il numero di samples AA impostato (ex 1024 x 4 con aa impostato a 4x) quella bella immagine che hanno nel buffer la comprimo e la rimandano come immagine di output.
per questa ragione l'aa di ati era migliore xè aveva la correzione del colore(stencil correction) che rendeva l'immagine con i colori dei pixel compressi migliore mentre l'aa di nvidia spesso si vedeva una netta linea tra le sfumatore di colore tra 2 pixel.

la 3dfx con il vsa100 invece renderizzava l'immagine per il numero di samples selezionate e le sovrapponeva spostandole leggermente dal punto centrale del pixel.(es selezionado 4x renderizzava 4 immagini uguali e le sovrapponeva spostandole leggermente l'una dall'altra)
quindi non vi era nessuna compressione dell'immagine e nessuna perdita di qualità.
difatti i risultati con aa o senza era semplice trovarli anche senza fare test
bastava prendere i risultati senza AA e dividere per il numero di samples scelti 2x o 4x o 8x e gia sapevi quale risultato avevi.
se facevi senza AA 120fps con il 2x ne facevi 60 e con il 4x ne favevi 30.
infatti poi l'aa max selezionabile era anche legato al numero di vsa100 installati sulla vga.
es le 4500 con 1 solo vsa100 e 32mb facevano aa max a 2x
la 5500 con 2 vsa100 e 64mb 4x
le 6000 con 4vsa100 e 128mb poteva andare in 8x

fondamentalmente l'aa funziona ancora cosi come sopra quando vi dicono es 6x 12x 24x sono tutti sistemi che sfocano l'immagine o altri escamotage.
non è chel'immagine ha un aa12x è un aa4x con le dovuto modificazioni es solo sui bordi dei pixel il quale effetto risulterebbe come un ipotetico aa12x.
ovviamente l'aa12x vero non si potrebbe fare in nessuna delle 2 maniere sopra descritto xè per moltiplicare una scena 12 volte e poi comprimela servirebbero dei F-buffer integrati nei core giganteschi o vga con ram onboard veramente sui 2gb o +, se invece si usasse il sistema 3dfx servirebbero dei coreclock abominevoli per renderizzare 12 scene e poi sovrapporle.

EvIL-LIFe
12-09-2007, 18:52
che usi per occare? :)

ho usato ati tool... stanotte provo rivatuner... ora devo scappare (onomastico della ragazza)...
ciao a tutti!!!

UP THE RADEON!

_Aenea_
12-09-2007, 18:55
le vga moderne prendono l'immagine di imput (es 1024) la moltiplicano del buffer per il numero di samples AA impostato (ex 1024 x 4 con aa impostato a 4x) quella bella immagine che hanno nel buffer la comprimo e la rimandano come immagine di output.
per questa ragione l'aa di ati era migliore xè aveva la correzione del colore(stencil correction) che rendeva l'immagine con i colori dei pixel compressi migliore mentre l'aa di nvidia spesso si vedeva una netta linea tra le sfumatore di colore tra 2 pixel.

la 3dfx con il vsa100 invece renderizzava l'immagine per il numero di samples selezionate e le sovrapponeva spostandole leggermente dal punto centrale del pixel.(es selezionado 4x renderizzava 4 immagini uguali e le sovrapponeva spostandole leggermente l'una dall'altra)
quindi non vi era nessuna compressione dell'immagine e nessuna perdita di qualità.
difatti i risultati con aa o senza era semplice trovarli anche senza fare test
bastava prendere i risultati senza AA e dividere per il numero di samples scelti 2x o 4x o 8x e gia sapevi quale risultato avevi.
se facevi senza AA 120fps con il 2x ne facevi 60 e con il 4x ne favevi 30.
infatti poi l'aa max selezionabile era anche legato al numero di vsa100 installati sulla vga.
es le 4500 con 1 solo vsa100 e 32mb facevano aa max a 2x
la 5500 con 2 vsa100 e 64mb 4x
le 6000 con 4vsa100 e 128mb poteva andare in 8x

fondamentalmente l'aa funziona ancora cosi come sopra quando vi dicono es 6x 12x 24x sono tutti sistemi che sfocano l'immagine o altri escamotage.
non è chel'immagine ha un aa12x è un aa4x con le dovuto modificazioni es solo sui bordi dei pixel il quale effetto risulterebbe come un ipotetico aa12x.
ovviamente l'aa12x vero non si potrebbe fare in nessuna delle 2 maniere sopra descritto xè per moltiplicare una scena 12 volte e poi comprimela servirebbero dei F-buffer integrati nei core giganteschi o vga con ram onboard veramente sui 2gb o +, se invece si usasse il sistema 3dfx servirebbero dei coreclock abominevoli per renderizzare 12 scene e poi sovrapporle.

Risposta esaurientissima! Grazie.... mi inchino letteralmente alla tua... sapienza! :) :) :) :)

SamCapone
12-09-2007, 19:14
Monster mi spieghi come dovrebbe essere questo adattatore DVI-HDMI? io pensavo a qualkosa ke si applicava sulla porta DVI della scheda video. nella scatola mi sono usciti diversi cavi ma pensavo fossero x il montaggio video.


Eco qua il mio :cool:

http://img522.imageshack.us/img522/4490/scansione0001dt8.jpg (http://imageshack.us)
http://img522.imageshack.us/img522/4490/scansione0001dt8.02bf47685e.jpg (http://g.imageshack.us/g.php?h=522&i=scansione0001dt8.jpg)

emax81
12-09-2007, 21:07
controllando sta img

http://img49.imageshack.us/img49/2641/af4272a06adb4abfb16d6e5xr5.jpg

come mai ha un pannellino diverso da quello solito :confused:

emax81
12-09-2007, 22:03
è disponibile da poco, la possibilità di fare il pre-load di TF2 per il beta del prossimo 17 settembre :O

Ps: buond download

Lino P
12-09-2007, 22:29
Ti invidio... 3 mesi fa l'ho pagata 430€...:cry:
Cmq benvenuto...;)
Sbaglio o comincia a vendicchiarsi mica male questa scheda tanto criticata?:)

Per quanto mi riguarda la priorità è l'innalzamento delle prestazioni in DX10, ho giocato a Bioshock senza filtri (ero sotto Vista) e non ne ho sentito la mancanza. Ad alte risoluzioni IMHO l'AA e l'AF non sono così evidenti...

come mai senza filtri? non reggeva?

Pat77
12-09-2007, 22:30
7.9 drivers

Ho fatto 2 test, 3dmark 2006 ho sfondato i 9000, precisamente 9040, prima 8900 circa.

Bioshock dx10 mi sembra migliorato nel frame rate.

Lino P
12-09-2007, 22:51
raga chiedo a voi possessori...
Non capisco il reale potenziale di questa scheda in confronto alle 8800...
La situazione sta realmente migliorando con i nuovi driver? Il fatto che tutti corrano verso nVIDIA mi da da pensare...
Non capisco se va meglio in DX 9 o 10...
Quelli di voi che l'hanno acquistata perchè lo hanno fatto? Cosa avete da dire a suo favore?

Catan
12-09-2007, 23:48
raga chiedo a voi possessori...
Non capisco il reale potenziale di questa scheda in confronto alle 8800...
La situazione sta realmente migliorando con i nuovi driver? Il fatto che tutti corrano verso nVIDIA mi da da pensare...
Non capisco se va meglio in DX 9 o 10...
Quelli di voi che l'hanno acquistata perchè lo hanno fatto? Cosa avete da dire a suo favore?

io credo che fondamentalmente come ogni duopolio ci siano base di utenze installate in parti uguali al 40% e 40%.
poi le case si contendono quel 20% che rappresentano ovviamente il surplus degli introiti.
fondamentalmente è difficile da dire xè hai comprato questa vga al 40% e vrai la risposta "xè mi piace la casa" fondamentalmete io posso dirti xè sono passato dalla 8800gts alla hd2900xt.

1)soluzioni tecniche, io sono un amante di tecnologia che non mi piace solo la potenza bruta ma anche quello che ho sotto. Personalmente le soluzioni tecniche adottate da r600 secondo me sono migliori di quelle adottate su G80.
Ringbus vs crossbar su tutte.

2) costo, si parla di una vga venduta a prezzo di una 8800gts che a volte va come una gtx... nei peggiori casi va come una gts.

3)i dvr, il processo di maturità dei dvr ovviamente non puo che non portare ad un incremento di performaces.
se si guardano le recensioni gi g80 all'uscita sia gtx che gts e i risultati delle stesse a confronto nella recensione di r600 si nota che entrambe hanno avuto miglioramenti con picchi anche del 20% in 6 mesi.
non è improbabile che il range di crescita di r600 sia similare.

4)mi sono trovato molto bene con i dvr ATI e non mi hanno mai dato problemi, di contro non mi trovo bene con il pannello nvidia.

5) fondamentalmete non si puo dire se va bene in dx9 o dx10 visto che il dx10 adesso come adesso è inesistente.
posso dire che in dx9 come detto sopra la vga arriva a picchi di una gtx e non è mai sotto una gts per lo stesos prezzo della gts.
in dx10 per ora i risultati sono contrastanti per il semplice motivo che anche bioshock è un gioco pesanetemente dx9 visto che è programmato con vengance che è l'ultima versione dell UT engine 2.5... ed hanno usato l'ut engine 3 solo per rendere compatibile il gioco in dx10.
difatti se guardi gli screen tra lo screen dx9 e uno dx10 io tra ombre,particelle e acqua noto migliore solo l'acqua.

6) secondo me molti anche giustamente sono passati ad nvidia xè ha fatto un prodotto ottimo finito potente da subito e che è stato un ottimo raccordo tra al fase di transizione dx9,dx10 gia il fatto che g80 possa fare aa nelle rop's in dx9 e in dx10 possa scegliere se farlo ancora nelle rop's o negli shader è un passo avanti rispetto a r600 che non si è ancora capito se per un bug sw o propio xè nn ne è capace si puo fare solo aa via shader e in dx9 non è digerito cosi bene.

fondamentalmente r600 è per quelli che piace molto la tecnologia ed apprezzano le finezze archidetturali(g80 è molto brutale in molte cose, soluzioni rozze rispetto a r600 ma cmq ugualmente performanti)
per quelli che all'inizio se la sono sentita di aspettare 3 o 4 mesi per avere la vga al top...e cmq quello che prendevano al prezzo della 8800gts andava come una 8800gts.

Credo che ati sperasse di fare la stessa figura che fece all'uscita della x1800xt che usci con 4 mesi di ritardo rispetto alle 7800 ma alla recensione andava come una 7800 e dopo altri 4 mesa la ha superata in performances.
con queste premesse fece uscire la x1900xt che andava molto meglio delle 7900 che fondamentalmente rano 7800 pompate e mantenne la leadership della vga + veloce.
purtrppo a questo giro non gli è andata cosi bene avendo trovato un prodotto come la 8800gtx che era gia maturo ed era cmq un tritagames e ovviamente non ha potuto che far altro,nella sua immaturità, che scontrarsi con la versione depotenziata di g80 ,la 8800gts, uscendone cmq vicitrice o cmq in parità...a distanza di 4 mesi con i giochi impegnativi come bioshok invece la partita con la 8800gts la ha vinta a mani basse e va come la gtx che cmq è una vga che costa 100E di +.

concludendo io sono molto soddisfatto della hd2900xt che mi ha impressionato molto + della 8800gts per i motivi sopra.

Michele81
13-09-2007, 07:35
5) fondamentalmete non si puo dire se va bene in dx9 o dx10 visto che il dx10 adesso come adesso è inesistente.
posso dire che in dx9 come detto sopra la vga arriva a picchi di una gtx e non è mai sotto una gts per lo stesos prezzo della gts.
in dx10 per ora i risultati sono contrastanti per il semplice motivo che anche bioshock è un gioco pesanetemente dx9 visto che è programmato con vengance che è l'ultima versione dell UT engine 2.5... ed hanno usato l'ut engine 3 solo per rendere compatibile il gioco in dx10.
difatti se guardi gli screen tra lo screen dx9 e uno dx10 io tra ombre,particelle e acqua noto migliore solo l'acqua.

A tal proposito volevo chiedere se gli ultimi driver hanno migliorato le prestazioni anche con aa e af attivati.
Sono alla ricerca di una review recente (che usi almeno i catalyst 7.8) che compari le prestazioni della 2900xt con le proposte nvidia con filtri attivati, solo che purtroppo quelle che ho trovato risalgono al periodo di uscita (14/05 e cat. 7.5).
Inoltre avevo letto (azz... non mi ricordo dove, forse anche in questo 3D) che con i nuovi driver anche i consumi in idle si erano leggermente abbassati...confermate?
Ciao!;)

Lino P
13-09-2007, 07:38
thanks Catan..;) Portroppo di tanto in tanto vengo qui a punzecchiarvi, ma questa vga pare aver avuto una evoluzione, seppure non rapidissima, ragion per cui è difficile buttarsi a capofitto nel thread è cogliere i vari step evolutivi per avere un quadro chiaro...:)
Alla fine siamo tutti in attesa di crysis, tant'è che vorrei attendere l'uscita della demo per cominciare a vedere alle prime battute, se va di + con ATI o nVIDIA...
Prevedi qualcosa Catan?
Altra cosa, la scheda si alimenta con 1 o 2 connettori pci-e?

berry83
13-09-2007, 08:14
Credo che ati sperasse di fare la stessa figura che fece all'uscita della x1800xt che usci con 4 mesi di ritardo rispetto alle 7800 ma alla recensione andava come una 7800 e dopo altri 4 mesa la ha superata in performances.
con queste premesse fece uscire la x1900xt che andava molto meglio delle 7900 che fondamentalmente rano 7800 pompate e mantenne la leadership della vga + veloce.
purtrppo a questo giro non gli è andata cosi bene avendo trovato un prodotto come la 8800gtx che era gia maturo ed era cmq un tritagames e ovviamente non ha potuto che far altro,nella sua immaturità, che scontrarsi con la versione depotenziata di g80 ,la 8800gts, uscendone cmq vicitrice o cmq in parità...a distanza di 4 mesi con i giochi impegnativi come bioshok invece la partita con la 8800gts la ha vinta a mani basse e va come la gtx che cmq è una vga che costa 100E di +.

concludendo io sono molto soddisfatto della hd2900xt che mi ha impressionato molto + della 8800gts per i motivi sopra.

questo xè bioshock non permette l'attivazione dell'AA, e come sappiamo r600 perde di + rispetto g80

mordsiger
13-09-2007, 08:21
quando si disinstalla il driver vecchio e si butta su quello nuovo tante volte l'os nn viene pulito bene. cosa fate per nn dover reinstallare tutto da capo ogni mese?

berry83
13-09-2007, 08:23
fondamentalmente r600 è per quelli che piace molto la tecnologia ed apprezzano le finezze archidetturali(g80 è molto brutale in molte cose, soluzioni rozze rispetto a r600 ma cmq ugualmente performanti)
per quelli che all'inizio se la sono sentita di aspettare 3 o 4 mesi per avere la vga al top...e cmq quello che prendevano al prezzo della 8800gts andava come una 8800gts.



scusa ma la tecnologia quando giochi dove la vedi?? ha un chip + bello da nvida, ha dei condensatori + belli di nvida?? :fagiano: :fagiano:

Athlon 64 3000+
13-09-2007, 08:27
R600 la circuiteria nelle rop's per fare l'aa ce la ho ma è limitata a 16 tmu e 16 rop's contro le 24 rop's e 32 tmu di G80 in versione GTX e questo anche se l'AA venisse applicato dalle rop's R600 sarebbe comunque più limitato rispetto a G80 versione GTX.

fukka75
13-09-2007, 08:57
quando si disinstalla il driver vecchio e si butta su quello nuovo tante volte l'os nn viene pulito bene. cosa fate per nn dover reinstallare tutto da capo ogni mese?

Si usa driver cleaner ;)

fustacchione90
13-09-2007, 09:00
scusa ma la tecnologia quando giochi dove la vedi?? ha un chip + bello da nvida, ha dei condensatori + belli di nvida?? :fagiano: :fagiano:

AVRESTI IL CORAGGIO DI SFOTTERE LE PAROLE SANTE CHE DICE IL NOSTRO MESSIA CATAN? FOLLEEEEEEEEEE:cry: :cry: :doh:

berry83
13-09-2007, 09:10
AVRESTI IL CORAGGIO DI SFOTTERE LE PAROLE SANTE CHE DICE IL NOSTRO MESSIA CATAN? FOLLEEEEEEEEEE:cry: :cry: :doh:
:D

mordsiger
13-09-2007, 09:49
Si usa driver cleaner ;)

la versione 1.5 che si trova in giro è vecchia però, dopodichè l'hanno messa a pagamento.... va bene lo stesso

Foglia Morta
13-09-2007, 09:56
dei test recenti in DX9 e DX10 :

http://www.legionhardware.com/document.php?id=683&p=2
http://www.legionhardware.com/document.php?id=683&p=3

garbage
13-09-2007, 10:01
Credo che ati sperasse di fare la stessa figura che fece all'uscita della x1800xt che usci con 4 mesi di ritardo rispetto alle 7800 ma alla recensione andava come una 7800 e dopo altri 4 mesa la ha superata in performances.
con queste premesse fece uscire la x1900xt che andava molto meglio delle 7900 che fondamentalmente rano 7800 pompate e mantenne la leadership della vga + veloce.

aspetta se intendi che la x1800xt ha superato la 7800gtx 256 in perfomance
sono daccordo ma se mi vieni a dire che la gtx 512 e stata batutta dalla x1800xt io ci cacico un bel LOL e poi mi dici dovera tutta sta differenza tra 7900gtx(che a sua volta va leggermente piu della gtx 512 e x1900xt (un 5-6% in piu?) nemmeno:)

fustacchione90
13-09-2007, 10:02
dei test recenti in DX9 e DX10 :

http://www.legionhardware.com/document.php?id=683&p=2
http://www.legionhardware.com/document.php?id=683&p=3

lol ottimo direi....meglio di cosi si muore....anke se a me n pare di fare tutti sti fps...ma una cosa, moh n è solo dx9???

fustacchione90
13-09-2007, 10:05
aspetta se intendi che la x1800xt ha superato la 7800gtx 256 in perfomance
sono daccordo ma se mi vieni a dire che la gtx 512 e stata batutta dalla x1800xt io ci cacico un bel LOL e poi mi dici dovera tutta sta differenza tra 7900gtx(che a sua volta va leggermente piu della gtx 512 e x1900xt (un 5-6% in piu?) nemmeno:)

xt è una bella merda (senza offesa x chi la possiede) la x1900xtX andava il doppio della xt....quellA ti dava anke il 15\20 in piu della tua 7900...

Quoziente
13-09-2007, 10:05
dei test recenti in DX9 e DX10 :

http://www.legionhardware.com/document.php?id=683&p=2
http://www.legionhardware.com/document.php?id=683&p=3

Noto con piacere dagli ultimi test postati 2 cose:
- la riconferma delle prestazioni della HD 2900 XT in DX9 (appena appena inferiore alla 8800 GTX, 2-3 fps in meno)
- finalmente la scheduzza inizia a viaggiare in DX10 battendo anche la GTX :sofico:; sono sempre più convinto di aver fatto la scelta giusta :D

P.S. Godo...

Foglia Morta
13-09-2007, 10:08
lol ottimo direi....meglio di cosi si muore....anke se a me n pare di fare tutti sti fps...ma una cosa, moh n è solo dx9???

stesso motore di bioshock... ci sarà anche DX10

garbage
13-09-2007, 10:12
xt è una bella merda (senza offesa x chi la possiede) la x1900xtX andava il doppio della xt....quellA ti dava anke il 15\20 in piu della tua 7900...

io non ho una 7900.... e poi cosa cambiava dalla xt a xtx con un leggero oc ci si arrivava cioe la x1900xt ha 625 di core e 1450 nelle ram la xtx a 650 (non sara troppo? 25mhz) 1550 nell ram quindi non ce tutta sta differenza guadangnera si e no 1-2 frame...

fustacchione90
13-09-2007, 10:12
stesso motore di bioshock... ci sarà anche DX10

lo so k è lo stesso... ma sulle opzioni video n ho visto nulla,,,,

Catan
13-09-2007, 10:31
scusa ma la tecnologia quando giochi dove la vedi?? ha un chip + bello da nvida, ha dei condensatori + belli di nvida?? :fagiano: :fagiano:

tecnologia puo essere molto;)
processo produttivo(altra cosa che in g80 è insopportabile padellone da 80nm e hanno dovuto mettere il tmds che regola i segnali video fuori con un secondo chip... che quando si rompe una 8800 non sai mai se è rotto il core e il tmds, se è rotto solo il tmds e non il core nsomma na soluzione tecnica x me davvero del cavolo potevano aspettare 3 mesi fare il tutto a 65mn ed integrare il tutto cmq ci sono siti di partissima come the inquirer che continua a difendere sta soluzione come una soluzione geniale per diminuire le interferenze eletromagnetiche:D :D :D ).
tecnologia puo essere anche soluzioni tecniche interne al chip o sul memory controler....:D :D :D
se ti piace anche vedere dentro i chip come sono fatti scoprirai che r600 è fatto meglio(a mio parere) di g80

Michele81
13-09-2007, 10:32
dei test recenti in DX9 e DX10 :

http://www.legionhardware.com/document.php?id=683&p=2
http://www.legionhardware.com/document.php?id=683&p=3

Grazie! Interessante! ;)
Sempre dallo stesso sito ho visto anche questa comparativa:
http://www.legionhardware.com/document.php?id=680
Praticamente con AA e AF attivati è al pari di una gts (più o meno)

Curioso di vedere come queste schede (8800 e 2900) si comporteranno con la demo di Crysis (anche se prevedo volatili per diabetici su entrambi i fronti)

Ciao!;)

Catan
13-09-2007, 10:32
A tal proposito volevo chiedere se gli ultimi driver hanno migliorato le prestazioni anche con aa e af attivati.
Sono alla ricerca di una review recente (che usi almeno i catalyst 7.8) che compari le prestazioni della 2900xt con le proposte nvidia con filtri attivati, solo che purtroppo quelle che ho trovato risalgono al periodo di uscita (14/05 e cat. 7.5).
Inoltre avevo letto (azz... non mi ricordo dove, forse anche in questo 3D) che con i nuovi driver anche i consumi in idle si erano leggermente abbassati...confermate?
Ciao!;)

guarda recensioni recenti dubito che le troverai xè fondamentalmente nussuno ha volgia di sbattersi a rifare la rencesione della vga con i dvr recenti dopo che ne ha fatta una con i dvr all'uscita.
il brutto delle review è questo che non si riesce a vedere l'andamento di crescita di una vga.
lo noti solo quando presentano una vga dopo la tua e la tua finisce nei test;) ;) ;)

Lino P
13-09-2007, 10:34
che intendi?

Catan
13-09-2007, 10:37
aspetta se intendi che la x1800xt ha superato la 7800gtx 256 in perfomance
sono daccordo ma se mi vieni a dire che la gtx 512 e stata batutta dalla x1800xt io ci cacico un bel LOL e poi mi dici dovera tutta sta differenza tra 7900gtx(che a sua volta va leggermente piu della gtx 512 e x1900xt (un 5-6% in piu?) nemmeno:)

difatti la 7800gtx è uscita 4 mesi prima della x1800xt...all'uscita e se ti vedi la recensione di hw la x1800xt era a pari della 7800gtx e la 7800gtx aveva gia sul groppone 4 mesi di maturità.
con il tempo la x1800xt batteva in molte cose la 7800gtx.
ovviamente non si palra della 7800gtx da 512mb che era una versione stra impiccata e tirata al limite della 7800gtx 256mb.
a questo punto nvidia se ne usci con gli 80nm e tirò fuori la bella 7900gtx che altro non era che una 7800gtx pompata in frequenze mentre ati mantenne le stresse frequenze ma introdusse x1900xt che fondamentalmente nell'ambito pixel era ad un massino 3 volte + efficente di x1800xt.
cmq andando meglio della 7900gtx

Catan
13-09-2007, 10:38
xt è una bella merda (senza offesa x chi la possiede) la x1900xtX andava il doppio della xt....quellA ti dava anke il 15\20 in piu della tua 7900...

la xt era la versione da oc della xtx...625-1450 vs 650-1550 della xtx;)
credo che praticamente tutte le xt vendute siano diventate xtx il secondo dopo essere state installate:D :D

Catan
13-09-2007, 10:45
R600 la circuiteria nelle rop's per fare l'aa ce la ho ma è limitata a 16 tmu e 16 rop's contro le 24 rop's e 32 tmu di G80 in versione GTX e questo anche se l'AA venisse applicato dalle rop's R600 sarebbe comunque più limitato rispetto a G80 versione GTX.

si oggettivamente sarebbe cosi con i puri valori teorici il fillrate massimo in rop's si attesterebbe con valore di
10000 per la gts
11800 per la hd
13800 per la gtx

xò si avrebbe il vantaggio in dx9 di non appiattirsi sulla 8800gts ma starne cmq distaccato e ovviamente cmq non arrivabile alla gtx visto che nsomma 24rop's non sono poche.
e sopratutto il vantaggio sarebbe che la r600 non avrebbe il problema che i giochi in dx9 mal digeriscono l'aa in shader e si avrebbero cmq maggiori performances.
se ci riferiamo solo ai numeri(che ovviamente sono situazioni massime teoriche) in alto se si riuscisse ad attivare in dx9 l'aa via rop's e si risolvesse sto bug si potrebbero ipoizzare incrementi superiori in dx9
con aa attivo fino ad un 10%-12% rispetto ad adesso dove l'aa è passato via shader in dx9 che parlandoci chiaro anche se questo fosse limitato in media ad un 5%...bèh tanto meglio almeno ho la vga sfruttata in totto e al top in ogni occasione

wiltord
13-09-2007, 10:50
la xt era la versione da oc della xtx...625-1450 vs 650-1550 della xtx;)
credo che praticamente tutte le xt vendute siano diventate xtx il secondo dopo essere state installate:D :D

già :D

mordsiger
13-09-2007, 10:51
la xt era la versione da oc della xtx...625-1450 vs 650-1550 della xtx;)
credo che praticamente tutte le xt vendute siano diventate xtx il secondo dopo essere state installate:D :D

io ho avuto la xt e la xtx.... nn erano affatto simili... c'era una bella differenza... a parte che la xtx aveva le ddr4 a 2000Mhz

wiltord
13-09-2007, 11:16
ti confondi con la 1950XTX ;)

EvIL-LIFe
13-09-2007, 11:59
ti confondi con la 1950XTX ;)

verissimo... ladifferenza tra XT e XTX era di una manciata di mhz su core e ram... tant'è vero ke io ho flashato la xt con il bios della xtx e mi funzionava xfettamente. questo perchè le due vga erano le MEDESIME, IDENTICHE, dal punto di vista hardware ma con bios differenti.

la xtx andava il doppio della xt? faceva al massimo un +2%.

gianni1879
13-09-2007, 12:03
io ho avuto la xt e la xtx.... nn erano affatto simili... c'era una bella differenza... a parte che la xtx aveva le ddr4 a 2000Mhz
x1900xt 625/1450
x1900xt 650/1550

berry83
13-09-2007, 12:18
sarebbe bello vedere ora bioshock con i nuovi driver appositi x nvdia e vedere il distacco in dx9 se c'è ancora mentre in dx10 se è migliorato

mordsiger
13-09-2007, 12:27
x1900xt 625/1450
x1900xt 650/1550

si io parlavo della 1950xt e 1950xtx... avevo capito quella... nn la 1900 scusate

mtk
13-09-2007, 12:29
la xt era la versione da oc della xtx...625-1450 vs 650-1550 della xtx;)
credo che praticamente tutte le xt vendute siano diventate xtx il secondo dopo essere state installate:D :D

si,confermo :D 675/963

Free Gordon
13-09-2007, 12:59
R600 la circuiteria nelle rop's per fare l'aa ce la ho

No, non è completa... ;)

Il resolve lo fa via shader.

wiltord
13-09-2007, 13:00
si io parlavo della 1950xt e 1950xtx... avevo capito quella... nn la 1900 scusate

no prob ;)

Free Gordon
13-09-2007, 13:07
io non ho una 7900.... e poi cosa cambiava dalla xt a xtx con un leggero oc ci si arrivava cioe la x1900xt ha 625 di core e 1450 nelle ram la xtx a 650 (non sara troppo? 25mhz) 1550 nell ram quindi non ce tutta sta differenza guadangnera si e no 1-2 frame...


La 7800GTX 512 è una scheda "phantom" fatta uscire per contrastare a livello più che altro ideale la 1800XT...

E' una scheda tirata per il collo, uscita in pochissimi esemplari... :D e che a questo punto andrebbe più confrontata con la 1800XT PE (perdendo nuovamente il confronto nella maggioranza dei casi) con core a 700mhz che con la versione XT (625).

G70/71 è un buon progetto ma con degli obiettivi tecnologici più limitati rispetto al progetto R520/580.
Questo lo si vede meglio oggi, dove nei giochi "nextgen" la 1900XT mostra distacchi con la 7900 anche di di 20-30 punti percentuali.

mordsiger
13-09-2007, 13:13
La 7800GTX 512 è una scheda "phantom" fatta uscire per contrastare a livello più che altro ideale la 1800XT...

E' una scheda tirata per il collo, uscita in pochissimi esemplari... :D e che a questo punto andrebbe più confrontata con la 1800XT PE (perdendo nuovamente il confronto nella maggioranza dei casi) con core a 700mhz che con la versione XT (625).

G70/71 è un buon progetto ma con degli obiettivi tecnologici più limitati rispetto al progetto R520/580.
Questo lo si vede meglio oggi, dove nei giochi "nextgen" la 1900XT mostra distacchi con la 7900 anche di di 20-30 punti percentuali.

confermo.... provata anche quella... penosa direi a confronto alle ati del momento.... poi è la scheda che in assoluto ho sentito scaldare così tanto... se la toccavi per + di 3 secondi ti ustionavi il dito .... ma veramente!!!!
infatti andava smontata sempre per mantenere pulito dalla polvere il dissy se no dopo un mesetto che la usavi andava in protezione temperatura... e dopo un anno di utilizzo si è cotta totalmente = cestino della monnezza !!!

Athlon 64 3000+
13-09-2007, 14:15
No, non è completa... ;)

Il resolve lo fa via shader.

Mi ero dimenticato di dirlo che la circuiteria nelle rop's c'è ma manca un componente che è quello che hai appena nominato.

Free Gordon
13-09-2007, 14:28
Grazie! Interessante! ;)
Sempre dallo stesso sito ho visto anche questa comparativa:
http://www.legionhardware.com/document.php?id=680
Praticamente con AA e AF attivati è al pari di una gts (più o meno)
Curioso di vedere come queste schede (8800 e 2900) si comporteranno con la demo di Crysis (anche se prevedo volatili per diabetici su entrambi i fronti)
Ciao!;)


In questo test, in CoH c'è qualcosa di strano... :confused: la GTX fa il doppio dei frames della GTS e della 2900XT... :eek:

Cmq, in Bioshock e Airborne la 2900XT và meglio (o uguale) della 8800GTX, probabilmente in tutti i giochi utilizzanti l'UE3 la 2900XT girerà più forte della controparte nVidia.
Non è granchè come risultato (dato che in questi giochi tutte le nuove schede vanno alla grande) :D ma fà presagire il fatto che quando l'AA sarà integrato nei motori grafici, R600 potrà essere alla pari (o meglio) di G80.

Iantikas
13-09-2007, 14:28
io credo che fondamentalmente come ogni duopolio ci siano base di utenze installate in parti uguali al 40% e 40%.
poi le case si contendono quel 20% che rappresentano ovviamente il surplus degli introiti.
fondamentalmente è difficile da dire xè hai comprato questa vga al 40% e vrai la risposta "xè mi piace la casa" fondamentalmete io posso dirti xè sono passato dalla 8800gts alla hd2900xt.

1)soluzioni tecniche, io sono un amante di tecnologia che non mi piace solo la potenza bruta ma anche quello che ho sotto. Personalmente le soluzioni tecniche adottate da r600 secondo me sono migliori di quelle adottate su G80.
Ringbus vs crossbar su tutte.

2) costo, si parla di una vga venduta a prezzo di una 8800gts che a volte va come una gtx... nei peggiori casi va come una gts.

3)i dvr, il processo di maturità dei dvr ovviamente non puo che non portare ad un incremento di performaces.
se si guardano le recensioni gi g80 all'uscita sia gtx che gts e i risultati delle stesse a confronto nella recensione di r600 si nota che entrambe hanno avuto miglioramenti con picchi anche del 20% in 6 mesi.
non è improbabile che il range di crescita di r600 sia similare.

4)mi sono trovato molto bene con i dvr ATI e non mi hanno mai dato problemi, di contro non mi trovo bene con il pannello nvidia.

5) fondamentalmete non si puo dire se va bene in dx9 o dx10 visto che il dx10 adesso come adesso è inesistente.
posso dire che in dx9 come detto sopra la vga arriva a picchi di una gtx e non è mai sotto una gts per lo stesos prezzo della gts.
in dx10 per ora i risultati sono contrastanti per il semplice motivo che anche bioshock è un gioco pesanetemente dx9 visto che è programmato con vengance che è l'ultima versione dell UT engine 2.5... ed hanno usato l'ut engine 3 solo per rendere compatibile il gioco in dx10.
difatti se guardi gli screen tra lo screen dx9 e uno dx10 io tra ombre,particelle e acqua noto migliore solo l'acqua.

6) secondo me molti anche giustamente sono passati ad nvidia xè ha fatto un prodotto ottimo finito potente da subito e che è stato un ottimo raccordo tra al fase di transizione dx9,dx10 gia il fatto che g80 possa fare aa nelle rop's in dx9 e in dx10 possa scegliere se farlo ancora nelle rop's o negli shader è un passo avanti rispetto a r600 che non si è ancora capito se per un bug sw o propio xè nn ne è capace si puo fare solo aa via shader e in dx9 non è digerito cosi bene.

fondamentalmente r600 è per quelli che piace molto la tecnologia ed apprezzano le finezze archidetturali(g80 è molto brutale in molte cose, soluzioni rozze rispetto a r600 ma cmq ugualmente performanti)
per quelli che all'inizio se la sono sentita di aspettare 3 o 4 mesi per avere la vga al top...e cmq quello che prendevano al prezzo della 8800gts andava come una 8800gts.

Credo che ati sperasse di fare la stessa figura che fece all'uscita della x1800xt che usci con 4 mesi di ritardo rispetto alle 7800 ma alla recensione andava come una 7800 e dopo altri 4 mesa la ha superata in performances.
con queste premesse fece uscire la x1900xt che andava molto meglio delle 7900 che fondamentalmente rano 7800 pompate e mantenne la leadership della vga + veloce.
purtrppo a questo giro non gli è andata cosi bene avendo trovato un prodotto come la 8800gtx che era gia maturo ed era cmq un tritagames e ovviamente non ha potuto che far altro,nella sua immaturità, che scontrarsi con la versione depotenziata di g80 ,la 8800gts, uscendone cmq vicitrice o cmq in parità...a distanza di 4 mesi con i giochi impegnativi come bioshok invece la partita con la 8800gts la ha vinta a mani basse e va come la gtx che cmq è una vga che costa 100E di +.

concludendo io sono molto soddisfatto della hd2900xt che mi ha impressionato molto + della 8800gts per i motivi sopra.

QUOTO

Athlon 64 3000+
13-09-2007, 14:34
In questo test, in CoH c'è qualcosa di strano... :confused: la GTX fa il doppio dei frames della GTS e della 2900XT... :eek:

Cmq, in Bioshock e Airborne la 2900XT và meglio (o uguale) della 8800GTX, probabilmente in tutti i giochi utilizzanti l'UE3 la 2900XT girerà più forte della controparte nVidia.
Non è granchè come risultato (dato che in questi giochi tutte le nuove schede vanno alla grande) :D ma fà presagire il fatto che quando l'AA sarà integrato nei motori grafici, R600 potrà essere alla pari (o meglio) di G80.

Sembra che R600 con L'U.E. 3 si trovi particolarmente a suo agio facendo si che(come si è visto dai benchmark di Bioshock e Airborne)riesce a pareggiare la 8800GTX

Lino P
13-09-2007, 14:38
in DX 10 intendi?

Free Gordon
13-09-2007, 14:43
Sembra che R600 con L'U.E. 3 si trovi particolarmente a suo agio facendo si che(come si è visto dai benchmark di Bioshock e Airborne)riesce a pareggiare la 8800GTX


Per forza, con l'UE3 non si può attivare l'MSAA*... ^_^

L'AF16x fa il solletico anche a R600...la perdita sarà forse anche maggiore rispetto a G80, ma solo per l'AF è cmq minima...
Sarebbe interessante infatti, testare le due schede con AF16x attivo e senza AA, per vedere entrambe come scalano con l'attivazione dell'anisotropico. Ma per ora sono convinto che sia così: anche R600 patisce poco l'AF a 16x. Il problema è nell'AA.


*Con UT3 in versione DX10 si potrà attivare (via shader) e così vedremo il primo confronto nextgeneration anche su quel versante, tra le due schede di punta. ;)

berry83
13-09-2007, 14:43
Sembra che R600 con L'U.E. 3 si trovi particolarmente a suo agio facendo si che(come si è visto dai benchmark di Bioshock e Airborne)riesce a pareggiare la 8800GTX

e dai considerando che era nata come scheda che doveva spaccare l'8800 gtx....... ogni tanto la eguaglia..... naturalmente senza AA, altrimenti ciao :sofico:

EvIL-LIFe
13-09-2007, 14:49
cmq vorrei dire la mia sulla questione AntiAliasing:
/ot: quando una scheda ti permette di giocare alla risoluzione massima del tuo monitor (il mio è 1680x1050) l'antialias è una cosa QUASI superflua... le scalettature di pixel sono rare e microscopieche... infatti si utilizzano tutti i pixel del monitor... quindi a mio modesto parere il calo di framerate con l'AA attivato è un difetto su cui ci si può tranquillamente passare sopra... e poi non c'è bisogno di attivarlo x forza a 8x, un modesto 2x può gia bastare (sempre se si gioca a risoluzione massima)... ecco tutto :ot\

berry83
13-09-2007, 15:06
cmq vorrei dire la mia sulla questione AntiAliasing:
/ot: quando una scheda ti permette di giocare alla risoluzione massima del tuo monitor (il mio è 1680x1050) l'antialias è una cosa QUASI superflua... le scalettature di pixel sono rare e microscopieche... infatti si utilizzano tutti i pixel del monitor... quindi a mio modesto parere il calo di framerate con l'AA attivato è un difetto su cui ci si può tranquillamente passare sopra... e poi non c'è bisogno di attivarlo x forza a 8x, un modesto 2x può gia bastare (sempre se si gioca a risoluzione massima)... ecco tutto :ot\

quando la stessa cosa accadeva con le 7900 si diceva il contrario xò, dato ke le 1900 perdevano molto meno delle 7800 attivando l'aa, metre con aa disattivato erano alla pari, ora invece non conta + l'aa?? :mbe: :mbe: :fagiano: :fagiano:

Free Gordon
13-09-2007, 15:25
quando la stessa cosa accadeva con le 7900 si diceva il contrario xò, dato ke le 1900 perdevano molto meno delle 7800 attivando l'aa, metre con aa disattivato erano alla pari, ora invece non conta + l'aa?? :mbe: :mbe: :fagiano: :fagiano:

Prevedo una bella vacanza per te, se continui così. :D

EvIL-LIFe non ha fatto confronti con altre marche, cerchiamo di lasciar perdere i soliti flames... ^_^

Reiniziamo a parlare di R600 e sue performance.

Iantikas
13-09-2007, 15:36
x ki cercava una rece un pò + recente ho trovato questa http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html ...162.22 x nvidia e 7.7 x ati...vengono testate GTS/GTX/Ultra e 2900XT 512mb/1gb (quest'ultima anke in CF) su Win Vista (nn vi son config SLI siccome al momento in Vista nn'è supportato)...

...x ki magari va giusto a vedere i bench tenga presente ke x-bit labs nell'analizzare skede d fascia alta cambia il settaggio d def dei driver e li setta x la max qualità (e quindi x es. attiva anke l'AA x texture trasparenti in modalità qualità)...x questo tutte le GPU danno risultati sensibilmente inferiori rispetto a quelli ke si vedono in altre rece...

...ciao

wiltord
13-09-2007, 16:43
e dai considerando che era nata come scheda che doveva spaccare l'8800 gtx....... ogni tanto la eguaglia..... naturalmente senza AA, altrimenti ciao :sofico:

sei pregato di evitare post volti solo a creare flames. grazie.

-Feanor-
13-09-2007, 16:54
x ki cercava una rece un pò + recente ho trovato questa http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html ...162.22 x nvidia e 7.7 x ati...vengono testate GTS/GTX/Ultra e 2900XT 512mb/1gb (quest'ultima anke in CF) su Win Vista (nn vi son config SLI siccome al momento in Vista nn'è supportato)...

...x ki magari va giusto a vedere i bench tenga presente ke x-bit labs nell'analizzare skede d fascia alta cambia il settaggio d def dei driver e li setta x la max qualità (e quindi x es. attiva anke l'AA x texture trasparenti in modalità qualità)...x questo tutte le GPU danno risultati sensibilmente inferiori rispetto a quelli ke si vedono in altre rece...

...ciao

questa è piu recente...
http://www.legionhardware.com/document.php?id=680
almeno usa i 7.8...;)

MonsterMash
13-09-2007, 17:23
cmq vorrei dire la mia sulla questione AntiAliasing:
/ot: quando una scheda ti permette di giocare alla risoluzione massima del tuo monitor (il mio è 1680x1050) l'antialias è una cosa QUASI superflua... le scalettature di pixel sono rare e microscopieche... infatti si utilizzano tutti i pixel del monitor... quindi a mio modesto parere il calo di framerate con l'AA attivato è un difetto su cui ci si può tranquillamente passare sopra... e poi non c'è bisogno di attivarlo x forza a 8x, un modesto 2x può gia bastare (sempre se si gioca a risoluzione massima)... ecco tutto :ot\

Posso anche essere d'accordo. Certo però per uno come me che ha un monitor crt con risoluzione massima di 2540x1920 il discorso non vale. Anche perchè, se pure riuscissi a trovare una scheda che mi faccia andare crysis a 60fps a quella risoluzione mostruosa (improbabile), dovrei comunque rinunciare al refresh rate da 120 hz per tenere quella risoluzione. E su un monitor così grande già 85hz risultano fastidiosi a lungo andare.

Lino P
13-09-2007, 17:40
Monster quanto ti sale la sapphire in OC con dissy stock?

MonsterMash
13-09-2007, 17:57
Monster quanto ti sale la sapphire in OC con dissy stock?

Al momento la mia scheda è in rma, per cui non posso fare prove. E non ne ho fatte con il dissi stock prima che si rompesse, mi spiace.
A liquido l'ho portata fino a 900, ma era veramente stabile solo fino ad una ventina di mhz in meno.
Ciao

berry83
13-09-2007, 18:04
sei pregato di evitare post volti solo a creare flames. grazie.

hihhi, guarda caso cosa hai nel case...... ATI

berry83
13-09-2007, 18:05
Prevedo una bella vacanza per te, se continui così. :D

EvIL-LIFe non ha fatto confronti con altre marche, cerchiamo di lasciar perdere i soliti flames... ^_^

Reiniziamo a parlare di R600 e sue performance.

xè ti rode???? :mc: :mc: :mc:

EvIL-LIFe
13-09-2007, 18:08
Prevedo una bella vacanza per te, se continui così. :D

EvIL-LIFe non ha fatto confronti con altre marche, cerchiamo di lasciar perdere i soliti flames... ^_^

Reiniziamo a parlare di R600 e sue performance.

Esatto! il mio discorso era basato sul mio acquisto... io ho speso 350€ per una scheda che mi fa giocare al massimo della qualità ottenibile sul mio monitor... e sono contento :D

Posso anche essere d'accordo. Certo però per uno come me che ha un monitor crt con risoluzione massima di 2540x1920 il discorso non vale. Anche perchè, se pure riuscissi a trovare una scheda che mi faccia andare crysis a 60fps a quella risoluzione mostruosa (improbabile), dovrei comunque rinunciare al refresh rate da 120 hz per tenere quella risoluzione. E su un monitor così grande già 85hz risultano fastidiosi a lungo andare.

il tuo è un caso diverso dal mio, se hai acquistato un monitor così grande e vuoi il massimo della resta, è normale che tu abbia bisogno di una scheda video molto potente (se non 2 ;) )...

MonsterMash
13-09-2007, 18:09
Esatto! il mio discorso era basato sul mio acquisto... io ho speso 350€ per una scheda che mi fa giocare al massimo della qualità ottenibile sul mio monitor... e sono contento :D



il tuo è un caso diverso dal mio, se hai acquistato un monitor così grande e vuoi il massimo della resta, è normale che tu abbia bisogno di una scheda video molto potente (se non 2 ;) )...

Già a 1280x1024 con AA 4X la resa è ottima. Infatti è a quello che solitamente punto :)

FreeMan
13-09-2007, 18:12
hihhi, guarda caso cosa hai nel case...... ATI

io ho invece nVidia nel case.. quindi la mia sospensione non dovrebbe crearti problemi... sei anche recidivo.. sospeso 10gg per flame

>bYeZ<

Catan
13-09-2007, 18:47
No, non è completa... ;)

Il resolve lo fa via shader.

quindi il famoso bug che loro dicevano via software adesso è ufficiale via hw...
ahi ahi ati-amd i miei complimenti per aver rifilato agli utenti una vga con bug hw e non software.
scusata ma io queste cose nn riesco propio a tollerarle non possono creare prodotti cosi fini tecnologicamente e poi fare queste boiate.
sono molto deluso da questo:( :( :(

Chicco85
13-09-2007, 18:56
Non è un bug.... è una precisa scelta per risparmiare spazio. Che sia condivisibile o meno questo è un altro conto. ;)

Athlon 64 3000+
13-09-2007, 19:11
quindi il famoso bug che loro dicevano via software adesso è ufficiale via hw...
ahi ahi ati-amd i miei complimenti per aver rifilato agli utenti una vga con bug hw e non software.
scusata ma io queste cose nn riesco propio a tollerarle non possono creare prodotti cosi fini tecnologicamente e poi fare queste boiate.
sono molto deluso da questo:( :( :(

io la sapevo da tempo e lo avevo anche postato su questa discussione.

Questo è quello che 2 mesi fa mi disse Yossarian e che ho gia postato su questa discussione:
c'è la circuiteria dedicata nelle rop's ma non per fare l'operazione di resolve, ossia quella che nell'AA classico è una semplice interpolazione lineare. Questo perchè le modalità di AA previste dalle dx10 sono di tipo non lineare e la stessa applicazione di AA+HDR, se l'AA è eseguito mediante interpolazione lineare, in molti casi non dà risultati soddisfacenti. Quindi le rop's (o RBE che dir si voglia) effettuano il campionamento dei subpixel ma le operazioni matematiche (lineari e non) sono demandate allo shader core.
La difficoltà principale di R600 è quella di massimizzare il parallelismo; questo perchè, avendo unità di calcolo di tipo VLIW è molto più dipendente di un'architettura superscalare pura (come quella di G80) dai driver. Una volta ottimizzata questa operazione (ma bada bene, in questo caso l'ottimizzazione va fatta applicazione per applicazione), la potenza di calcolo per eseguire sia le operazioni tipiche dello shader core che quelle matematiche, relative all'applicazione dell'AA è più che sufficiente

M4R1|<
13-09-2007, 20:38
io la sapevo da tempo e lo avevo anche postato su questa discussione.

Questo è quello che 2 mesi fa mi disse Yossarian e che ho gia postato su questa discussione:
c'è la circuiteria dedicata nelle rop's ma non per fare l'operazione di resolve, ossia quella che nell'AA classico è una semplice interpolazione lineare. Questo perchè le modalità di AA previste dalle dx10 sono di tipo non lineare e la stessa applicazione di AA+HDR, se l'AA è eseguito mediante interpolazione lineare, in molti casi non dà risultati soddisfacenti. Quindi le rop's (o RBE che dir si voglia) effettuano il campionamento dei subpixel ma le operazioni matematiche (lineari e non) sono demandate allo shader core.
La difficoltà principale di R600 è quella di massimizzare il parallelismo; questo perchè, avendo unità di calcolo di tipo VLIW è molto più dipendente di un'architettura superscalare pura (come quella di G80) dai driver. Una volta ottimizzata questa operazione (ma bada bene, in questo caso l'ottimizzazione va fatta applicazione per applicazione), la potenza di calcolo per eseguire sia le operazioni tipiche dello shader core che quelle matematiche, relative all'applicazione dell'AA è più che sufficiente

quindi significa che ad ogni gioco nuovo serviranno degli hotfix, come quelli per bioshock o quake wars, ve be nn è un problema, solo che da subito nn si potrà avere il massimo

Pat77
13-09-2007, 20:47
quindi significa che ad ogni gioco nuovo serviranno degli hotfix, come quelli per bioshock o quake wars, ve be nn è un problema, solo che da subito nn si potrà avere il massimo

Basta ottimizzare il motore 3d che supporta il gioco, peraltro dinamica che succede da sempre nei videogiochi pc, da qui le performance consistenti con l'Unreal 3, che appunto ha ricevuto un hotfix che presumo sarà la base del supporto futuro.

nico88desmo
13-09-2007, 21:13
Basta ottimizzare il motore 3d che supporta il gioco, peraltro dinamica che succede da sempre nei videogiochi pc, da qui le performance consistenti con l'Unreal 3, che appunto ha ricevuto un hotfix che presumo sarà la base del supporto futuro.

Ottimizzare il motore 3D o i driver?
Spero dici quest'ultimi.

M4R1|<
13-09-2007, 21:22
Ottimizzare il motore 3D o i driver?
Spero dici quest'ultimi.

il motore e i driver. ed un esempio è bioshock (Unreal Engine 3) in dx9. (per le dx10 basto solo pazzientare per via dei driver)

giusto Pat77?

nico88desmo
13-09-2007, 21:32
il motore e i driver. ed un esempio è bioshock (Unreal Engine 3) in dx9. (per le dx10 basto solo pazzientare per via dei driver)

giusto Pat77?

Bioshock è molto ottimizzato...da quello che vedo dai test. UE3 e CryEngine 2.0 secondo me saranno degli ottimi motori grafici...
Comunque il problema di questa ATI è proprio della continua ottimizzazione dei driver per ogni applicazione...sia per quanto riguarda il memory controller di tipo ring bus sia per via della parte shader e di conseguenza dell'AA. Penso/spero che con la prossima architettura video AMD sia meno sbilanciata di ora...

M4R1|<
13-09-2007, 21:40
Bioshock è molto ottimizzato...da quello che vedo dai test. UE3 e CryEngine 2.0 secondo me saranno degli ottimi motori grafici...
Comunque il problema di questa ATI è proprio della continua ottimizzazione dei driver per ogni applicazione...sia per quanto riguarda il memory controller di tipo ring bus sia per via della parte shader e di conseguenza dell'AA. Penso/spero che con la prossima architettura video AMD sia meno sbilanciata di ora...

be dai però nn è così malvagia, anzi io mi ritengo soddisfatto, altre che cmq il bello di ati che tutt'ora sviluppa driver per le vecchie gnerazioni, quindi si può stare tranquilli ;)

nico88desmo
13-09-2007, 21:44
be dai però nn è così malvagia, anzi io mi ritengo soddisfatto, altre che cmq il bello di ati che tutt'ora sviluppa driver per le vecchie gnerazioni, quindi si può stare tranquilli ;)

Come architettura del shader core è migliore della concorrente.
Per il ring bus...è meglio del cross-bar...ma più impegnativo.
Quello che mi fà preoccupare è proprio il futuro sviluppo driver; di solito, una volta uscita la nuova high-end, si trascurano le precedenti e se accadrà questo, le potenzialità dell'attuale scheda non verrà mai sfruttato a dovere.

Pat77
13-09-2007, 21:45
Ottimizzare il motore 3D o i driver?
Spero dici quest'ultimi.

Come con i motori Valve, o quello di Doom3, una volta che ottimizzano il driver per il motore, ne beneficiano tutti i giochi di conseguenza, poi ovviamente ci saranno affinamenti minori specifici.

Pat77
13-09-2007, 21:48
Come architettura del shader core è migliore della concorrente.
Per il ring bus...è meglio del cross-bar...ma più impegnativo.
Quello che mi fà preoccupare è proprio il futuro sviluppo driver; di solito, una volta uscita la nuova high-end, si trascurano le precedenti e se accadrà questo, le potenzialità dell'attuale scheda non verrà mai sfruttato a dovere.

Guarda su questo aspetto Ati supporta adeguatamente le schede di quasi tutta la gamma, io ho visto alcuni miglioramenti, sul pc di un mio amico, con 9600xt, mettendo i 7.9.
Poi dipende molto da tante cose, ad esempio ultimamente ho sentito di problemi con i 7.9 e le schede x1900 agp.

M4R1|<
13-09-2007, 21:49
Come architettura del shader core è migliore della concorrente.
Per il ring bus...è meglio del cross-bar...ma più impegnativo.
Quello che mi fà preoccupare è proprio il futuro sviluppo driver; di solito, una volta uscita la nuova high-end, si trascurano le precedenti e se accadrà questo, le potenzialità dell'attuale scheda non verrà mai sfruttato a dovere.

ma da quello che ho visto in questi anni, ati si è sempre comportata in maniera professionale ;) attualemente se nn sbaglio sviluppa anxora i driver di tutte le serie X (Xxxx e X1xxx) o cmq ha deciso entro poco di abbandonarle, quindi si comportata più che bene:) ;)

nico88desmo
13-09-2007, 21:56
Guarda su questo aspetto Ati supporta adeguatamente le schede di quasi tutta la gamma, io ho visto alcuni miglioramenti, sul pc di un mio amico, con 9600xt, mettendo i 7.9.
Poi dipende molto da tante cose, ad esempio ultimamente ho sentito di problemi con i 7.9 e le schede x1900 agp.

ma da quello che ho visto in questi anni, ati si è sempre comportata in maniera professionale ;) attualemente se nn sbaglio sviluppa anxora i driver di tutte le serie X (Xxxx e X1xxx) o cmq ha deciso entro poco di abbandonarle, quindi si comportata più che bene:) ;)

Però sia la serie X800 sia la X1x00 sono state fin da subito delle buone schede video...quindi l'ottimizzazione era "meno" importante rispetto all'HD2xxx.

Pat77
13-09-2007, 22:01
bho x1900gt che avevo migliorava, anche di molto, di driver in driver, la cosa non mi dispiaceva affatto :D

M4R1|<
13-09-2007, 22:04
Però sia la serie X800 sia la X1x00 sono state fin da subito delle buone schede video...quindi l'ottimizzazione era "meno" importante rispetto all'HD2xxx.

proprio per questo questa volta i driver verranno continuamanete ottimizzati.

M4R1|<
13-09-2007, 22:08
bho x1900gt che avevo migliorava, anche di molto, di driver in driver, la cosa non mi dispiaceva affatto :D

be con la 2900 c'è di media un 10% in più ad ogni relase di driver.
ora confido in quello detto da Ati, coi cata 7.10, veramente li si avranno driver maturi sotto tutti gli aspetti. speriamo :sperem: :sperem:

+Lonewolf+
13-09-2007, 22:09
eccomi di ritorno...;)


c'è qlk comparativa 7.8 vs 7.9?

M4R1|<
13-09-2007, 22:10
eccomi di ritorno...;)


c'è qlk comparativa 7.8 vs 7.9?

cavolo ma sono già passati 10gg? cmq ben tornato:) :)

+Lonewolf+
13-09-2007, 22:13
cavolo ma sono già passati 10gg? cmq ben tornato:) :)

10 lunghissimi giorni:O

:ncomment:

cmq grazie:)

nico88desmo
13-09-2007, 22:15
Io attendo i test :)
Sicuro del 10% in più ad ogni release?
Un pò esagerato credo ;)

Pat77
13-09-2007, 22:22
Bhe con i 7.8 c'è stato un buon aumento, di questo sono certo.

+Lonewolf+
13-09-2007, 22:25
Io attendo i test :)
Sicuro del 10% in più ad ogni release?
Un pò esagerato credo ;)

7.7 e 7.8 complessivamente hanno aumentato di un 10-15%(non ogniuno si intende ma complessivamente) i 7.9 non so ancora...

Athlon 64 3000+
13-09-2007, 22:29
R600 per me è una gran bella architettura che è molto complessa e è molto performante nei giochi con uso intensivo di shader e di shader con lunghe istruzioni.
Ati ha scelto di fare una scheda pesantemente sbilanciata verso le operazione degli shader ed ecco perchè nei giochi dove si fa uso intensivo di texture tipo stalker la scheda va come una 8800GTS e anche perchè nell'AA perde di più rispetto alla 8800GTX.

Lino P
13-09-2007, 23:43
7.7 e 7.8 complessivamente hanno aumentato di un 10-15%(non ogniuno si intende ma complessivamente) i 7.9 non so ancora...

ehi Lone, provato a salire in oc con dissy stock?

Free Gordon
13-09-2007, 23:48
quindi il famoso bug che loro dicevano via software adesso è ufficiale via hw...
ahi ahi ati-amd i miei complimenti per aver rifilato agli utenti una vga con bug hw e non software.
scusata ma io queste cose nn riesco propio a tollerarle non possono creare prodotti cosi fini tecnologicamente e poi fare queste boiate.
sono molto deluso da questo:( :( :(

:mbe:
Non è un bug, hanno scelto così per restare entro i limiti di num di transistor...
Se avessero potuto fare un chip da 800mln o più di transistor, l'avrebbero inserito.. ;)
I transistor sono stati usati per fare un'architettura nuova, molti sono andati nelle cache, nel nuovo ringbus ecc ecc.. la scelta è opinabile (per ora, magari in futuro non apparirà più così.. :D ) ma non è sicuramente un bug.

Garagolo
14-09-2007, 00:13
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX?

grazie

MonsterMash
14-09-2007, 00:19
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX?

grazie


Nessuno lo sa, ed azzardare una previsione è come cercare di indovinare chi vincerà il campionato di calcio. Ci si può azzeccare, ma solo perchè si hanno poche possibilità tra cui scegliere :)

Per quanto mi riguarda, secondo me la 2900xt andrà un po' meglio delle 8800gtx e magari pure ultra senza filtri, mentre andrà un po' peggio coi filtri AA. Ma ammetto di non basarmi su dati concreti (nessuno potrebbe farlo, visto che non ce ne sono).

Ormai cmq mancano meno di due settimane all'uscita della demo, per cui non resta che aspettare

Ciao

thommy87
14-09-2007, 00:22
bah...secondo me andranno tutte e due bene..se questo fosse come lost planet sarebbe un bel flop

M4R1|<
14-09-2007, 05:47
Io attendo i test :)
Sicuro del 10% in più ad ogni release?
Un pò esagerato credo ;)

io però ho detto di media il 10% per ogni release, esclusi i 7.9 sui quali nn ho info e nn ho avuto dei riescontri visivi

M4R1|<
14-09-2007, 05:53
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX?

grazie

concordo con la risposta che ti ha dato MonsterMash, nessuno può saperlo.
si potrebbero fare delle ipotesi, ma la vedo troppo azzardate, e nella peggior delle ipotesi potrebbero risultare flames, quindi aspettiamo.
Tanto siamo a -11, anche se sicuramente le ottimizzazioni della demo nn saranno del game completo visto che esce quasi 2 mesi dopo

Michele81
14-09-2007, 08:11
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX?

grazie

L'unica cosa che so su Crysis è che la beta è stata provata su un Q6600 e 8800GTS 640MB 4GB ram 1280x1024 AA4X e dettagli su High (e se nn sbaglio dovrebbe esserci uno step superiore, tipo "ultra" o una cosa del genere, che nella beta non è settabile), e va dai 20 ai 60fps.
Rimangono le incognite: driver usati? vsync off/on? è una beta! ecc....


Per l'analisi dei Catalyst: in base a questa review alcuni incrementi nell'applicazione dell'AA e AF ci sono stati:

http://www.tweaktown.com/articles/1157/1/page_1_introduction/index.html

Foglia Morta
14-09-2007, 08:18
sempre riguardo R600 ( con bus esterno 256bit e se ricordo bene una versione downclockata a 600Mhz , potrebbe essere la 2900PRO per il mercato consumer ) vs G80 ( non castrato perchè ha 768MB di ram e 128 stream processor , però non conosco le frequenze ) , stavolta in ambito professionale ( quadro e firegl )

http://www.3dprofessor.org/Reviews%20Folder%20Pages/FireGLV7600/V7600Pt1.htm

fukka75
14-09-2007, 09:16
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX?

grazie

IL 25 settembre esce la demo, solo allora si saprà qualcosa :rolleyes:

DjLode
14-09-2007, 09:42
Io comunque dico ancora Nvidia avanti. Crysis praticamente è stato testato sempre su gpu Nvidia visto che per un sacco di tempo Ati non aveva concorrenti in campo. Poi con l'uscita di vari driver la situazione migliorerà, ma qui mi fermo nelle mie congetture.

TecnoWorld8
14-09-2007, 09:56
questo è già stato postato?

http://www.hardspell.com/english/doc/showcont.asp?news_id=1421

sono bench veritieri? non capisco se sono fatti già con l'hotfix o meno.

zorco
14-09-2007, 10:15
Io comunque dico ancora Nvidia avanti. Crysis praticamente è stato testato sempre su gpu Nvidia visto che per un sacco di tempo Ati non aveva concorrenti in campo. Poi con l'uscita di vari driver la situazione migliorerà, ma qui mi fermo nelle mie congetture.
quello che hai detto tù è verissimo non essendo r600 presente nel periodo di sviluppo di crysis le gpu nvidia potrebbero avere un vantaggio..

wiltord
14-09-2007, 10:18
quello che hai detto tù è verissimo non essendo r600 presente nel periodo di sviluppo di crysis le gpu nvidia potrebbero avere un vantaggio..

lo credo anch'io, cmq stiamo a vedere..

Lino P
14-09-2007, 10:59
lo credo anch'io, cmq stiamo a vedere..

Quoto..
Intanto resto a guardare, visto che devo prendere la VGA...
crysis mi interessa giocarlo per bene, vedrò chi tra ATI ed nVIDIA consente di fruirne al meglio...

tarabas2
14-09-2007, 11:03
questo è già stato postato?

http://www.hardspell.com/english/doc/showcont.asp?news_id=1421

sono bench veritieri? non capisco se sono fatti già con l'hotfix o meno.

sono bench vecchissimi ke nn hanno niente a ke vedere con il reale valore attuale della scheda. mi sa ke cambiano solo il titolo di intestazione ma i grafici son sempre uguali.

3DMark79
14-09-2007, 11:38
Salve ragazzi spero stiate tutti benone...:D
Vi posto un link sulle evoluzioni delle Ati HD...
http://www.tomshw.it/news.php?newsid=11341
http://www.vr-zone.com/?i=5256

+Lonewolf+
14-09-2007, 11:42
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX?

grazie

secondo me inizialmente andrà meglio la 8800 ma con driver ottimizzati an hoc(come servono alla 2900 x ogni applicazione) la storia cambierebbe

Lino P
14-09-2007, 12:08
può darsi...
Lone, ti ripeto la domanda... come vai in oc con dissy stock?

+Lonewolf+
14-09-2007, 12:20
può darsi...
Lone, ti ripeto la domanda... come vai in oc con dissy stock?

ciao Lino!

core 840 mem 970

questo ad agosto...

Catan
14-09-2007, 12:34
secondo me inizialmente andrà meglio la 8800 ma con driver ottimizzati an hoc(come servono alla 2900 x ogni applicazione) la storia cambierebbe

dipende da quanto hanno avuto tempo i programmatori di ati di mettere mano sul gioco!
es se il gioco esce il 20 novembre e quelli di ati lo hanno in mano dal 20 ottobre il tempo di fare la release dei 7.11 con gia gli aggiornamenti e ottimizazioni su crysis lo hanno tutto...

Catan
14-09-2007, 12:35
può darsi...
Lone, ti ripeto la domanda... come vai in oc con dissy stock?

la mia invece è stranissima.
sotto liquido con i voltaggi a default mi fa 900-1000
con il dissi stock non c'è verso di farla andare oltre gli 800-1000

Free Gordon
14-09-2007, 12:48
volevo fare una domanda....ma secondo voi con un gioco come CRYSIS questa scheda (2900xt) andra' meglio o peggio rispetto ad una 8800GTX? grazie

Se in Crysis si applicherà l'antialiasing in modo classico, anche nella vers dx10, sarà molto difficile che con AA4x (o più) attivo, la 2900XT vada più forte della 8800GTX/Ultra. ;)

Senza AA (l'AF non conta granchè), la lotta potrebbe essere interessante... vedremo. ;)

Free Gordon
14-09-2007, 12:55
questo è già stato postato?
http://www.hardspell.com/english/doc/showcont.asp?news_id=1421
sono bench veritieri? non capisco se sono fatti già con l'hotfix o meno.

Mah, quì va come una 1950XTX, cosa che poteva persino accadere nei casi peggiori all'inizio dello sviluppo driver, in giochi fortemente limitati dalle 16TMU in operazioni di texturing semplici.

Non mi pare proprio la situazione di QW:ET...cmq attenderei di vedere dei bench più chiari.

+Lonewolf+
14-09-2007, 12:56
dipende da quanto hanno avuto tempo i programmatori di ati di mettere mano sul gioco!
es se il gioco esce il 20 novembre e quelli di ati lo hanno in mano dal 20 ottobre il tempo di fare la release dei 7.11 con gia gli aggiornamenti e ottimizazioni su crysis lo hanno tutto...

scusami la domanda ma ATI e NVIDIA avranno delle copie del gioco prima dell'uscita al pubblico obbligatoriamente oppure a discrezione di crytek?

+Lonewolf+
14-09-2007, 12:57
Mah, quì va come una 1950XTX, cosa che poteva persino accadere nei casi peggiori all'inizio dello sviluppo driver, in giochi fortemente limitati dalle 16TMU in operazioni di texturing semplici.

Non mi pare proprio la situazione di QW:ET...cmq attenderei di vedere dei bench più chiari.

a me con af + AA 4x fa 56fps etqw...a 1280...ma nn credo che ci sia un'eccessiva differenza con 1600x1200...

safendi
14-09-2007, 13:00
giorno a tutti

Lino P
14-09-2007, 13:02
ben arrivato...;)

Catan
14-09-2007, 13:47
scusami la domanda ma ATI e NVIDIA avranno delle copie del gioco prima dell'uscita al pubblico obbligatoriamente oppure a discrezione di crytek?

spesso ovviamente microsoft, ati e nvidia hanno molti contatti con le sofware house che sfornano giochi di grido e non è raro che le case di vga abbiamo almeno un mese prima una versione all'80% del gioco o del motore grafico per poter iniziare a lavorare sui dvr.
non penserai mica che case come ati o nvidia aspettano l'uscita del gioco per poterne prendere delle copie e iniziare ad ottimizzare i dvr?
poi dipende dalla scelta della casa a seconda delle priorità in uscita e delle ottimizzazioni:
es se su ati stanno lavorando a bioshock per incrementi nella revisione dei dvr 7.11 e sanno che crysis esce nel periodo dei 7.11 con buone probabilità non è che smettono il lavoro di ottimizazione per bioshock semplicemente le ottimizazioni per crysis verrano rilasciate on i 7.12.
certo questo sistema si va a scontrare con chi si prende il gioco appena uscito e lo finisce prima di un mese ma nsomma le ottimizazioni si solitamente sono un range del 10%-15% mo non giocare a crysis xè se adesso mi fa 60fps e se aspetto un mese me ne fa 70 è quanto meno da malati:D :D :D

anche se come la dico sempre io tutto sto interesse per crysisi nn lo ho anzi sto aspettando trepitante Unreal Tournament III

Lino P
14-09-2007, 14:48
non dimentichiamoci inoltre, che al di là dei driver, prima di un certo periodo difficilmente un titolo è fruibilissimo senza grane. Non lo è prima che vengano rilasciate innumerevoli patch...
Ricordate FEAR? Gran gioco, ma bacato fino all'osso.. Per quel titolo hanno sfornato ben 8 patch, mentre il 90% degli appassionati lo ha giocato e finito quando era ancora bacato, perchè ormai lo aveva, e per la foga di finirlo si accontentava di ridurre dettagli e risoluzione pur di tamponare i già tanti bachi del motore grafico, ed ottenere un framerate decente...

Iantikas
14-09-2007, 15:14
in effetti ankio nn capisco tutta questa trepidante attesa x crysis...o questo aggiornare/comprare il pc in sua funzione...

...x me è solo uno dei tanti gioki ke deve uscire...x es. m'interessa molto d + CoD 4...naturalmente cmq spero mi girino tutti bene :D

Iantikas
14-09-2007, 15:16
non dimentichiamoci inoltre, che al di là dei driver, prima di un certo periodo difficilmente un titolo è fruibilissimo senza grane. Non lo è prima che vengano rilasciate innumerevoli patch...
Ricordate FEAR? Gran gioco, ma bacato fino all'osso.. Per quel titolo hanno sfornato ben 8 patch, mentre il 90% degli appassionati lo ha giocato e finito quando era ancora bacato, perchè ormai lo aveva, e per la foga di finirlo si accontentava di ridurre dettagli e risoluzione pur di tamponare i già tanti bachi del motore grafico, ed ottenere un framerate decente...


già...quasi tutti i gioki con le patch vengono stravolti...io infatti me li rigioco ad ogni patch (stalker m'è sembrato ogni volta un gioco diverso :D )...SS II prima della 2064 faceva il fuoco a quadratini se c'avevi una ATI...etc etc

-Feanor-
14-09-2007, 15:43
date un occhiata qui ragazzi....

http://www.hardspell.com/english/doc/showcont.asp?news_id=1420

sembra interessante...anche se purtroppo non credo rispecchi la verita....:rolleyes:

Quoziente
14-09-2007, 16:10
date un occhiata qui ragazzi....

http://www.hardspell.com/english/doc...p?news_id=1420

sembra interessante...anche se purtroppo non credo rispecchi la verita....

Praticamente ci stanno dicendo che con i Catalyst 7.8 i giochi DX9 vanno meglio sotto Vista che sotto XP (o al limite alla pari...)
Ci credo poco anch'io...:rolleyes:

safendi
14-09-2007, 16:40
date un occhiata qui ragazzi....

http://www.hardspell.com/english/doc/showcont.asp?news_id=1420

sembra interessante...anche se purtroppo non credo rispecchi la verita....:rolleyes:

ma hai aggiornato il pc poi??

Iantikas
14-09-2007, 17:15
x quanto riguarda il link su harspell appena postato questa è la rece originale con tutti i risultati http://www.elitebastards.com/cms/index.php?option=com_content&task=view&id=461&Itemid=29 ...

...ciao

M4R1|<
14-09-2007, 17:20
date un occhiata qui ragazzi....

http://www.hardspell.com/english/doc/showcont.asp?news_id=1420

sembra interessante...anche se purtroppo non credo rispecchi la verita....:rolleyes:

mi sembra un po' strano, e l'esempio è bioshock, dove sotto xp fa punteggi da paura, e sotto vista (dx9) ne fa un bel po' di meno, poi magari mi sbaglio. cmq teoricamente i game sotto vista in dx9 Dovrebbero andare meglio, per la miglior gestione delle API

Catan
14-09-2007, 17:24
ma che :mad: :mad: di stest...
è ovvio testano a 2048x1536 con aa4x e af8x ergo in condizione di piena saturazione della banda e del processore.
è ovvio che

1)le prestazioni siano allineate il test porta alla saturazione la vga sia sotto vista che sotto xp

2)è ovvio che vada meglio vista per il semplice fatto che in condizione di saturazione a questa maniera dove non solo la vga ma anche tutto il sistema è saturato, visto che che vista ha una migliore gestione delle ram in questo lavorare in saturazioen sotto vista da risultati migliori.
mettiamoci anche che ovviamente le dx10 hanno una migliore gestione dell'overflow rispetto alle dx9 e a 2048 praticamente stai in una condizione di overflow perenne....

-Feanor-
14-09-2007, 17:37
ma hai aggiornato il pc poi??

no...:asd:...sono un bambo....continuo ad aspettare senza scopo..:asd:....
il fatto è che i soldi non abbondano...:D ...e quindi continuo a rimandare per paura di fare qualche errore (investimento sbagliato)...:fagiano:

ma che :mad: :mad: di stest...
è ovvio testano a 2048x1536 con aa4x e af8x ergo in condizione di piena saturazione della banda e del processore.


e allora tu guarda solo i test a 1600x1200....:ciapet::asd:

Solit
14-09-2007, 17:37
Girando per la rete ho letto una news (http://www.centerzone.it/) riguardante la nostra bella R600. Fra poco oltre che ad utilizzarla per giocare potremo utilizzarla anche per far girare l'antivirus.

Con la Scheda Grafica la Scansione Antivirus vola !
Notizie flash
Scritto da Technomhz
gio 13 settembre 2007 10:12

KASPERSKY sta testando nei propri laboratori la possbilità di utilizzare le schede Video di utlima generazione, con funzioni da GPGPU, per la scansione Antivirus
Il test effettuato con un particolare software denominato Kaspersky SafeStream , e sviluppato in collaborazione con Tatari Inc. , azienda che si occupa di sistemi di accelerazione basati su hardware grafico, ha fornito risultati strabilianti.
La prova è stata condotta utilizzando 2 AMD Opteron dual-core e confrontata poi con una GPU ATI R600.

Nel caso della nuova GPU ATI la scansione Antivirus è stata ben 21 volte più veloce, ed è avvenuta al Transfer Rate di 6,2Gbps, con un utilizzo della CPU fissato intorno all' 1-2%.
Un risultato davvero eclatante quello ottenuto dal Team e che potrebbe aprire nuovi orizzonti ad applicazioni professionali in grado di utilizzare un componente ad altissime prestazioni con scopi totalmente diversi da quelli attuali.

-Feanor-
14-09-2007, 17:39
Girando per la rete ho letto una news (http://www.centerzone.it/) riguardante la nostra bella R600. Fra poco oltre che ad utilizzarla per giocare potremo utilizzarla anche per far girare l'antivirus.

si avevo sentito qualcosa del genere....secondo me puo essere molto interessante questa possibilita...naturalmente estesa....;)

Solit
14-09-2007, 17:41
si avevo sentito qualcosa del genere....secondo me puo essere molto interessante questa possibilita...naturalmente estesa....;)

La cosa sembra essere molto interessante, spero si possa sapere presto di più su questo nuovo antivirus, la cosa mi interessa molto.

M4R1|<
14-09-2007, 17:54
Girando per la rete ho letto una news (http://www.centerzone.it/) riguardante la nostra bella R600. Fra poco oltre che ad utilizzarla per giocare potremo utilizzarla anche per far girare l'antivirus.

porca nn ne sapevo niente!!!!
se questa cosa venisse estesa anche ad altri programmi ci ritroveremmo una potenza enorme a nostra disposizione.

Solit
14-09-2007, 17:59
porca nn ne sapevo niente!!!!
se questa cosa venisse estesa anche ad altri programmi ci ritroveremmo una potenza enorme a nostra disposizione.

La scheda grafica ha una potenza molto elevata è un peccato sprecarla solo per giocare

fdadakjli
14-09-2007, 18:03
se questa cosa venisse estesa anche ad altri programmi ci ritroveremmo una potenza enorme a nostra disposizione.

già...sarebbe una gran bella cosa... ;) :read:

Lino P
14-09-2007, 18:16
Mmm interessante...

Garagolo
14-09-2007, 18:20
[QUOTE=-Feanor-;18700981]no...:asd:...sono un bambo....continuo ad aspettare senza scopo..:asd:....
il fatto è che i soldi non abbondano...:D ...e quindi continuo a rimandare per paura di fare qualche errore (investimento sbagliato)...:fagiano:



come non quotarti:D

Defragg
14-09-2007, 18:23
Girando per la rete ho letto una news (http://www.centerzone.it/) riguardante la nostra bella R600. Fra poco oltre che ad utilizzarla per giocare potremo utilizzarla anche per far girare l'antivirus.

Ma per il fantomatico CUDA niente? :asd:

Solit
14-09-2007, 18:28
Ma per il fantomatico CUDA niente? :asd:

:boh: :boh: :boh: :boh: :boh: Non sarebbe poi così fantomatico allora....

Chicco85
14-09-2007, 18:39
mi sembra un po' strano, e l'esempio è bioshock, dove sotto xp fa punteggi da paura, e sotto vista (dx9) ne fa un bel po' di meno, poi magari mi sbaglio. cmq teoricamente i game sotto vista in dx9 Dovrebbero andare meglio, per la miglior gestione delle API

Ti posso dire che bioshock in dx9 sotto vista ha un marcato aumento di fps rispetto alla controparte dx10.

In dx10 sono attorno ai 55 fps, i dx9 non li ho mai misurati, ma penso di essere a circa 70 fps di media. In più sotto vista e in modalità dx9 posso attivare l'AA. Così facendo bioshock gira a oltre 40 fps di media (più vicini ai 50 fps, ora però non ho il log sottomano, che ho comunque postato in passato) a 1680x1050 aa4x af16x con dettagli al massimo.

Prendete questi valori un pò con il beneficio del dubbio, perchè fino a quando non esce un timedemo o un bench ripetibile pedissequamente, io sono il primo a non essere soddisfatto di quei numeri (specialmente di quei test con AA fatti con cpu a 3,3 Ghz e solo con 1 GB di ram in single channel....)

M4R1|<
14-09-2007, 18:56
Ti posso dire che bioshock in dx9 sotto vista ha un marcato aumento di fps rispetto alla controparte dx10.

In dx10 sono attorno ai 55 fps, i dx9 non li ho mai misurati, ma penso di essere a circa 70 fps di media. In più sotto vista e in modalità dx9 posso attivare l'AA. Così facendo bioshock gira a oltre 40 fps di media (più vicini ai 50 fps, ora però non ho il log sottomano, che ho comunque postato in passato) a 1680x1050 aa4x af16x con dettagli al massimo.

Prendete questi valori un pò con il beneficio del dubbio, perchè fino a quando non esce un timedemo o un bench ripetibile pedissequamente, io sono il primo a non essere soddisfatto di quei numeri (specialmente di quei test con AA fatti con cpu a 3,3 Ghz e solo con 1 GB di ram in single channel....)

spero che coi 7.10 bioshock vada come in dx9 sotto xp :D
scherzo sono troppo ottimista, ma nn sarebbe male aver un incremento, cosa che coi 7.9 nn c'è, o cmq se mi fa 3 fps in più che mi frega

Pat77
14-09-2007, 19:22
In dx10 un 5-10 fps di media in più in dx10 ci sono.
In dx9 ho provato una volta e volo letteralmente.

M4R1|<
14-09-2007, 19:57
In dx10 un 5-10 fps di media in più in dx10 ci sono.
In dx9 ho provato una volta e volo letteralmente.

ops scusatimi allora, ho provato ma di fretta, e nn nei punti critici

Thhh
14-09-2007, 22:16
con sistema (opteron 175, scheda a default) formattato ho ripetuto i test e ho fatto 8203 con catalyst 7.9... ora provo la demo di bioshock.

Lino P
15-09-2007, 08:59
raga scusate, ma quanti connettori di alimentazione ha sta vga? MI è sembrato di vederne 2...

EvIL-LIFe
15-09-2007, 09:18
raga scusate, ma quanti connettori di alimentazione ha sta vga? MI è sembrato di vederne 2...

ce ne sono due infatti... uno è un connettore pci-e normale a 6 pin... l'altro è a 8 pin e non esce il cavo nella scatola... se non si connette quello a 8 pin non puoi attivare l'overdrive :(
pero se ne attacchi due da 6, l'overdrive lo puoi fare tu manualmente via software come sto facendo io sotto consiglio dei ragazzi del forum...

Lino P
15-09-2007, 09:23
che cavolata sta cosa... gli costava tanto darlo in bundle...?

EvIL-LIFe
15-09-2007, 10:06
ho detto la stessa cosa quando ho aperto la scatola... mi sono usciti due adattatori a 6 pin e nessuno a 8 pin... veramente ASSURDO!

Quoziente
15-09-2007, 10:26
ho detto la stessa cosa quando ho aperto la scatola... mi sono usciti due adattatori a 6 pin e nessuno a 8 pin... veramente ASSURDO!

Beh, almeno la GeCube gli adattatori a 6 pin li ha messi nella scatola... La Sapphire invece non ha incluso nemmeno quelli!!!:mad:
Invito chi compra la Sapphire a munirsi di adattatore 6 pin (solitamente la maggior parte degli alimentatori hanno solo 1 connettore 6 pin). Altrimenti arrivate a casa e non potete attaccarla... :mad:

Lino P
15-09-2007, 10:26
ma è così per tutti i modelli?

Quoziente
15-09-2007, 10:32
Credo riguardi solo la HD 2900 XT, non mi sembra che la 2600 e la 2400 abbiano bisogno di alimentazione extra. Per il modello a 1Gb invece non ne ho proprio idea ma dubito che l'abbiano incluso...

Edit: come non detto, sono andato sul sito Sapphire e sia la 2600 che la 2400 "richiedono alimentazione esterna aggiuntiva", non è specificato altro però...

Ri-edit: A guardare le foto delle schede però connettori non se ne vedono... Mah, lascio la parola a chi ha una di queste schede...

Lino P
15-09-2007, 11:04
no no, mi riferivo solo alla x 2900, ma ai vari partner..
Nel senso che poteva darsi, che magari, ASUS desse il cavetto in bundle, mentre sapphire e ge cube no.. (esempio)

darkangelz
15-09-2007, 11:11
Beh, almeno la GeCube gli adattatori a 6 pin li ha messi nella scatola... La Sapphire invece non ha incluso nemmeno quelli!!!:mad:
Invito chi compra la Sapphire a munirsi di adattatore 6 pin (solitamente la maggior parte degli alimentatori hanno solo 1 connettore 6 pin). Altrimenti arrivate a casa e non potete attaccarla... :mad:

io ho una Sapphire 2900xt e dentro la scatola erano inclusi i 2 adattori da 6pin :D

Lino P
15-09-2007, 11:34
e il fatidico 8 pin?

M4R1|<
15-09-2007, 12:04
Beh, almeno la GeCube gli adattatori a 6 pin li ha messi nella scatola... La Sapphire invece non ha incluso nemmeno quelli!!!:mad:
Invito chi compra la Sapphire a munirsi di adattatore 6 pin (solitamente la maggior parte degli alimentatori hanno solo 1 connettore 6 pin). Altrimenti arrivate a casa e non potete attaccarla... :mad:

confermo, cmq l'ideale con una scheda di questo tipo sarebbe avere un ali con 2 pci-e dedicate

M4R1|<
15-09-2007, 12:05
e il fatidico 8 pin?

lo da solo la MSI

Lino P
15-09-2007, 12:22
o si trova su qualche ali di ultimissima generazione immagino...