PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Zodd_Il_nosferatu
09-06-2007, 15:26
scusate ho provato a disinstallare i driver su vista ma noto che non me li disinstalla ma mi toglie solo il CCC...e dopo nn me lo fa rimettere +!!! che devo fare?

ehm i dna drivers non sono ancora per vista :mc:

TecnoWorld8
09-06-2007, 15:43
ehm i dna drivers non sono ancora per vista :mc:

ma questi driver hanno l'ovedrive?

+Lonewolf+
09-06-2007, 15:43
ehm i dna drivers non sono ancora per vista :mc:

infatti dopo me ne sn accorto e ora sto provando a reinstallare quelli normali!!!

ora posso mettere il CCC ma se provo a reinstallare i driver guardate qui

http://img368.imageshack.us/my.php?image=erroreai9.jpg

che devo fare aiutatemi:mc:

gianni1879
09-06-2007, 15:47
ecco il mio result con stessi setting ma con Vsync disattivato;)
http://img505.imageshack.us/img505/1493/immagine6fq6.th.jpg (http://img505.imageshack.us/my.php?image=immagine6fq6.jpg)

scheda default oppure OC?

+Lonewolf+
09-06-2007, 15:49
infatti dopo me ne sn accorto e ora sto provando a reinstallare quelli normali!!!

ora posso mettere il CCC ma se provo a reinstallare i driver guardate qui

http://img368.imageshack.us/my.php?image=erroreai9.jpg

che devo fare aiutatemi:mc:

:mc:

+Lonewolf+
09-06-2007, 16:18
risolto;) ho cancellato manualmente la directory c:/ATI dei driver e reinstallato

belin
09-06-2007, 16:24
risolto;) ho cancellato manualmente la directory c:/ATI dei driver e reinstallato

...se puoi dai una pulita anche al registro, cancellare la cartella non toglie le inf presenti nel registro e in win\system.

:)

Athlon 64 3000+
09-06-2007, 16:38
ho fatto anche io il test di Faear a 1280x960 con tutto al massimo e filtri attivati da gioco:
Minima:33
Media:76
Massima:159

C'è da dire che il risultato è poco superiore alla mia X1900XT.

Disattivando completamente le ombre faccio:
Minima:38
Media:104
Massima:269

I risultati sono simila alla mia vecchia X1900XT e penso che ci sia qualche problemi di driver.

MonsterMash
09-06-2007, 17:05
Finalmente disponibile la tech demo di ruby :D

http://ati.amd.com/developer/demos/rhd2000.html

Ci vuole vista per avviarla. Ciao

+Lonewolf+
09-06-2007, 17:05
ho fatto anche io il test di Faear a 1280x960 con tutto al massimo e filtri attivati da gioco:
Minima:33
Media:76
Massima:159

C'è da dire che il risultato è poco superiore alla mia X1900XT.

Disattivando completamente le ombre faccio:
Minima:38
Media:104
Massima:269

I risultati sono simila alla mia vecchia X1900XT e penso che ci sia qualche problemi di driver.

no adesso no diamo tutta la colpa ai drivers...quello è un problema di cpu-limited

zorco
09-06-2007, 17:05
ho fatto anche io il test di Faear a 1280x960 con tutto al massimo e filtri attivati da gioco:
Minima:33
Media:76
Massima:159

io ho fatto questo risultato con queste impostazioni

http://www.pctuner.info/up/results/_200706/th_20070609180436_impostazioni2.JPG (http://www.pctuner.info/up/image.php?src=_200706/20070609180436_impostazioni2.JPG)

http://www.pctuner.info/up/results/_200706/th_20070609180212_fearresult.JPG (http://www.pctuner.info/up/image.php?src=_200706/20070609180212_fearresult.JPG)

+Lonewolf+
09-06-2007, 17:06
Finalmente disponibile la tech demo di ruby :D

http://ati.amd.com/developer/demos/rhd2000.html

Ci vuole vista per avviarla. Ciao

ma è tutto calcolato in real time o è un video?

+Lonewolf+
09-06-2007, 17:07
cmq considerate che poty ha la vga in oc...appena mi arriva fear glie le suono io con il mio super oc:D:D:D :p

TecnoWorld8
09-06-2007, 17:08
ma è tutto calcolato in real time o è un video?

beh, se ci vuole Vista, presumo sia la demo renderizzata in real time ;) c'è cmq anche un video in 720p

MonsterMash
09-06-2007, 17:17
ma è tutto calcolato in real time o è un video?

Real time, ovviamente. E' una tech demo DX10. Se vuoi il video in HD lo trovi nella stessa paggina che ho linkato poco sopra.

+Lonewolf+
09-06-2007, 17:26
Real time, ovviamente. E' una tech demo DX10. Se vuoi il video in HD lo trovi nella stessa paggina che ho linkato poco sopra.

provata, veramente spettacolare

-Feanor-
09-06-2007, 17:59
provata, veramente spettacolare

è la stessa del video rilasciato qualche tempo fa.....?? comprende anche uno strascico di conteggio fps pseudo-benchmark........?? o no......?

TecnoWorld8
09-06-2007, 18:13
visto il video, sicuramente d'effetto!!! come gira sulla scheda? fluido come nel video? a che risoluzione?

Iantikas
09-06-2007, 18:48
cmq considerate che poty ha la vga in oc...appena mi arriva fear glie le suono io con il mio super oc:D:D:D :p

dagli screen ke ha postato sembra ke il test l'abbia fatto con le freq di def....almeno questo si capisce guardando il monitoring di rivatuner...ciao

p.s.: cmq entrambi (quelli ke hanno fatto il test) alla voce computer nelle impo di fear hanno messo "alta" e nn "massimo"...potete farli con massimo (e se possibile anke a 1680x1050) così paragono i risultati a quelli ke ottengo io)

p.p.s.: sto inziando a maledire sta skeda :D , sto ad un passo dall'esaurimento nervoso :oink: ...da quando è uscita sto a kiedermi se prenderla o meno e ancora nn son arrivato ad una decisione definitiva...le prestazioni "altalenanti" sopratutto mi frenano...ke poi è un casino x es. in stalker (uno dei gioki ke ultimamente uso di +) alcune rece dicono ke va una bomba altre la fanno andare come una x1950pro (anke con gli ultimi driver) ki ha skeda e gioco potrebbe fare dei test con fraps @1680x1050 tutto al max??? e se nn kiedo troppo :sofico: potrebbe farli anke in Rainbow Six Vegas @1680x1050 tutto al max e anke in Serious Sam II @1680x1050 4xAA 16xAF tutto al max???...

...ciao e grazie. :D

MonsterMash
09-06-2007, 19:09
visto il video, sicuramente d'effetto!!! come gira sulla scheda? fluido come nel video? a che risoluzione?

Il video a me gira fluidissimo con la scheda @ default e con la cpu a 2800mhz (devo sistemare ancora rmclock sotto vista...).
Non c'è un contatore di fps, ma ad occhio direi che sono sempre sopra i 30. Per quanto riguarda la risoluzione, non si può scegliere, ma sembrerebbe alta, almeno 1024x768 con un buon AA, oppure 1280x1024 con AA intermedio, visto che non noto scalettature di sorta.

Ciao

Poty...
09-06-2007, 20:22
cmq considerate che poty ha la vga in oc...appena mi arriva fear glie le suono io con il mio super oc:D:D:D :p

hihi:D dai che ci divertiamo effettivamente quelle 2900 sono su una piattaforma un pò cpu limited ma non mi discostavo così tanto quando avevo amd dia dia daiiii mi RACCOMANDO parlo di OC daily non tanto per fare il bench quindi in caso testiamo con ati tools il mio result può ancora salire parecchio ricordati di attivare l'atialiasin correzione gamma perchè io c'è l'ho attivo basta che ti vedi gli screen che ho postato prima;)

Poty...
09-06-2007, 20:26
dagli screen ke ha postato sembra ke il test l'abbia fatto con le freq di def....almeno questo si capisce guardando il monitoring di rivatuner...ciao

p.s.: cmq entrambi (quelli ke hanno fatto il test) alla voce computer nelle impo di fear hanno messo "alta" e nn "massimo"...potete farli con massimo (e se possibile anke a 1680x1050) così paragono i risultati a quelli ke ottengo io)

p.p.s.: sto inziando a maledire sta skeda :D , sto ad un passo dall'esaurimento nervoso :oink: ...da quando è uscita sto a kiedermi se prenderla o meno e ancora nn son arrivato ad una decisione definitiva...le prestazioni "altalenanti" sopratutto mi frenano...ke poi è un casino x es. in stalker (uno dei gioki ke ultimamente uso di +) alcune rece dicono ke va una bomba altre la fanno andare come una x1950pro (anke con gli ultimi driver) ki ha skeda e gioco potrebbe fare dei test con fraps @1680x1050 tutto al max??? e se nn kiedo troppo :sofico: potrebbe farli anke in Rainbow Six Vegas @1680x1050 tutto al max e anke in Serious Sam II @1680x1050 4xAA 16xAF tutto al max???...

...ciao e grazie. :D

no raga sto in overclock;) le frequenze da riva sono default perchè l'ho aperto dopo il test e ho il bios modificato che in 2d mi tornano a default le frequenze;)


bè ad avercelo uno schermo che supporta quella risoluzione!! max 1280x1024 io (che poi non ho intenzione assolutamente di prendere schermi con risoluzione superiore tanto a 1600 con i vekki giochi si ci può giocare con le vga nuove metti un crysis o UT3 c'è li sognamo con le 2900 e 8800 quindi dovremmo mettere 1280 e a questa risoluzione un 21 o un 24 pollici si vede peggio di un 19 nativo 1280 )

Defragg
09-06-2007, 21:13
mi sono appena visto il trailer di team fortress 2 scaricabile dal sito delle tech demo per R600
esilarante :rotfl:

7stars
09-06-2007, 22:22
mi sono appena visto il trailer di team fortress 2 scaricabile dal sito delle tech demo per R600
esilarante :rotfl:
si l'avevo visto molto simpatico ma non mi fa impazzire la grafica troppo fumettistica

Chief
09-06-2007, 22:24
Provata la demo di Ruby :eek: fatta davvero bene la faccia di ruby sconvolgente:O...Comunque oltre la demo fa provare anche vari programmi che ti permettono di vedere la gestione dell HDR e degli shader della scheda impressionante sinceramente:D
Aggiungo: una cosa e vedere foto e video un'altra e vedere la demo che gira realmente sulla scheda il casco del tizio nell elicottero non ve lo racconto proprio:eek:

TecnoWorld8
09-06-2007, 22:34
si l'avevo visto molto simpatico ma non mi fa impazzire la grafica troppo fumettistica

a me invece piace davvero molto! considerando che il fotorealismo è ancora lontano, penso che gli sviluppatori dovrebbero cercare questa grafica di tipo "cartoon", che invece è ormai alla portata delle GPU

halduemilauno
10-06-2007, 08:15
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1401&Itemid=1

Diamond MM makes them for SIs

Diamond Multimedia will start selling the Radeon HD 2900XT 1GB cards for System integrators on the 14th. These cards will finally resurface on Thursday and selected companies will start selling this single GPU 1 GB Radeon HD 2900XTX cards but only in the System integrator machines.

ATI decided to rename the R600 XTX and brand it finally as Radeon HD 2900XT 1GB card and this card is the first GDDR4 from ATI with 1 GB.

You can even put two of them in Crossfire. The bad thing about it is that it will only be marginally faster than Radeon HD 2900XT with 512 MB GDDR3.

You will be able to get this card in systems from Biohazard Computer Systems, Inc. , Extreme PC, Falcon North West, Maingear, Memory Express, NCIX, Smooth Creations, Velocity Micro, Vigor and XI.

il 14 è vicino. vedremo.
;)

MonsterMash
10-06-2007, 11:09
Ho installato windows vista 64 solo per provare la tech demo di ruby, ma visto che mi trovavo ho anche fatto qualche altra prova. Ad esempio call of juarez dx10, che a dire la verità non mi ha affatto stupito per la grafica, e che non va però poi così lento come mi aspettavo. A meno di non impostare SSAA a 4X. Con il MSAA diciamo che sarebbe giocabile a 1280x1024, da quello che ho visto. Anche se ovviamente ci si aspetterebbe prestazioni doppie per un gioco come quello.
Ho provato anche lost planet dx10, ma l'ho chiuso subito. E' assurdo pensare di poterlo testare con tutti gli artefatti che da'.
Ho poi testato colin mc rea dirt, e ho l'impressione che sotto vista vada leggermente meglio che sotto xp. Test con gli fps esatti ancora non li ho fatti. Se ho un po' di tempo li faccio stasera.
Ho invece notato che dopo un po' che stresso pesantemente il sistema (ad esempio con coli mc rea dirt, che sembrerebbe al momento il gioco più pesante sia per la cpu che per la gpu) la ventola dell'alimentatore comincia a girare al massimo, e da dietro l'aria esce bollente, e con un'odore quasi di bruciato. Un'odore che non saprei descrivere bene, forse di polvere bruciata, o forse di metallo caldo. Però ho idea che non sia normale. Non vorrei ritrovarmi con l'intero pc in fumo... forse sarebbe bene abbassare un po' almeno l'OC della cpu...

Vi terrò aggiornati :)

fukka75
10-06-2007, 11:11
POsta i risultati, con qualche screen, di CoJDX10 nel thread dedicato.
Grazie

TecnoWorld8
10-06-2007, 12:10
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1401&Itemid=1

Diamond MM makes them for SIs

Diamond Multimedia will start selling the Radeon HD 2900XT 1GB cards for System integrators on the 14th. These cards will finally resurface on Thursday and selected companies will start selling this single GPU 1 GB Radeon HD 2900XTX cards but only in the System integrator machines.

ATI decided to rename the R600 XTX and brand it finally as Radeon HD 2900XT 1GB card and this card is the first GDDR4 from ATI with 1 GB.

You can even put two of them in Crossfire. The bad thing about it is that it will only be marginally faster than Radeon HD 2900XT with 512 MB GDDR3.

You will be able to get this card in systems from Biohazard Computer Systems, Inc. , Extreme PC, Falcon North West, Maingear, Memory Express, NCIX, Smooth Creations, Velocity Micro, Vigor and XI.

il 14 è vicino. vedremo.
;)

il problema è che a quanto ho capito è l'overclock del core a dare i migliori risultati, dunque anche mettere più memoria e a frequenza più elevata servirà appunto poco, come giustamente dice la news riportata.

Secondo me, anche questa rimarrà sostanzialmente più lenta di una GTX, con l'aggravio che costerà magari uguale, data la quantità (per ora tra l'altro abbastanza inutile) di memoria a bordo.

+Lonewolf+
10-06-2007, 13:14
a quando i cata 7.6??? 16 giugno?

×§ñåkê×
10-06-2007, 13:30
a quando i cata 7.6??? 16 giugno?

hai sparato una data a caso :fagiano: ?

cmq non credo così presto.

+Lonewolf+
10-06-2007, 13:33
hai sparato una data a caso :fagiano: ?

cmq non credo così presto.

no...un utente disse quella data e disse tra parentesi "fonte certa"...mah sec me max 20giu

+Lonewolf+
10-06-2007, 13:34
occando la mia ho fatto 78 fpss massimi al bench in dx10:D

Kharonte85
10-06-2007, 14:12
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1401&Itemid=1

Diamond MM makes them for SIs

Diamond Multimedia will start selling the Radeon HD 2900XT 1GB cards for System integrators on the 14th. These cards will finally resurface on Thursday and selected companies will start selling this single GPU 1 GB Radeon HD 2900XTX cards but only in the System integrator machines.

ATI decided to rename the R600 XTX and brand it finally as Radeon HD 2900XT 1GB card and this card is the first GDDR4 from ATI with 1 GB.

You can even put two of them in Crossfire. The bad thing about it is that it will only be marginally faster than Radeon HD 2900XT with 512 MB GDDR3.

You will be able to get this card in systems from Biohazard Computer Systems, Inc. , Extreme PC, Falcon North West, Maingear, Memory Express, NCIX, Smooth Creations, Velocity Micro, Vigor and XI.

il 14 è vicino. vedremo.
;)
Chiarissimo...ed era quello che pensavo da tempo...
occando la mia ho fatto 78 fpss massimi al bench in dx10:D
Purtroppo non sono quelli che contano...:doh:

+Lonewolf+
10-06-2007, 14:13
Chiarissimo...ed era quello che pensavo da tempo...

Purtroppo non sono quelli che contano...:doh:

basta vedere che aumento si ha avuto con l'oc...e soprattutto pensa che gli fps minimi rimangono sempre 11...quindi ipotizzando che si tratti di un baco del sw se aumentano di 10fps i max allora è un buon risultato!!!

Kharonte85
10-06-2007, 14:16
basta vedere che aumento si ha avuto con l'oc...e soprattutto pensa che gli fps minimi rimangono sempre 11...quindi ipotizzando che si tratti di un baco del sw se aumentano di 10fps i max allora è un buon risultato!!!
Se vuoi la mia opinione quel bench è fortemente sfasato...e in questi casi è meglio riferirsi solo al valore medio...;)

TecnoWorld8
10-06-2007, 14:18
un po' OT, ma nemmeno troppo...c'è da qualche parte una lista dei giochi DX10 in uscita prossimamente, con le relative date?

Mi pare di capire che fino ad almeno settembre/ottobre non se ne vedranno di significativi...sbaglio?

Poliphilo
10-06-2007, 14:20
Raga, da ieri sono possessore di una nuova Sapphire HD2900XT. :D

Sto cercando di montare tutto il PC (ho tutti i pezzi nuovi), ma ci vuole tempo visto che sto montando il liquido (sia cpu che gpu), ed è la prima volta.

+Lonewolf+
10-06-2007, 14:30
un po' OT, ma nemmeno troppo...c'è da qualche parte una lista dei giochi DX10 in uscita prossimamente, con le relative date?

Mi pare di capire che fino ad almeno settembre/ottobre non se ne vedranno di significativi...sbaglio?

nn di significativi, ma pare che bioshock supporterà in parte le dx10;)

+Lonewolf+
10-06-2007, 14:31
Raga, da ieri sono possessore di una nuova Sapphire HD2900XT. :D

Sto cercando di montare tutto il PC (ho tutti i pezzi nuovi), ma ci vuole tempo visto che sto montando il liquido (sia cpu che gpu), ed è la prima volta.

ottimo appena finisci dimmelo che testiamo un po', sotto liquido dovresti arrivare a un bell'oc...io ad aria ho già ottenuto buoni risultati

-Feanor-
10-06-2007, 14:34
un po' OT, ma nemmeno troppo...c'è da qualche parte una lista dei giochi DX10 in uscita prossimamente, con le relative date?

Mi pare di capire che fino ad almeno settembre/ottobre non se ne vedranno di significativi...sbaglio?

io ho trovato qst http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support .....calcolando che comunque alcuni giochi tipo company of heroes, sono gia dx10 con l'apposita patch.....di significativi pero non se ne vedranno...hai ragione...per significativi intendo con motore dx10 piu o meno nativo...:sofico:

-Feanor-
10-06-2007, 14:35
nn di significativi, ma pare che bioshock supporterà in parte le dx10;)

e vorresti dire che bioshock non è significativo....?? :mbe: :sofico: ...è uno dei giochi piu attesi dell anno....e avrà feature dx 10....

+Lonewolf+
10-06-2007, 14:39
e vorresti dire che bioshock non è significativo....?? :mbe: :sofico: ...è uno dei giochi piu attesi dell anno....e avrà feature dx 10....

no infatti scherzavo.....:D

TecnoWorld8
10-06-2007, 14:46
bioshock è molto interessante, ma mi pare che anch'esso esca a fine agosto - inizio settembre, no? o sbaglio?

-Feanor-
10-06-2007, 14:47
no infatti scherzavo.....:D

dai non preoccuparti.....l'avevo capito.......:D :D :D

+Lonewolf+
10-06-2007, 14:47
bioshock è molto interessante, ma mi pare che anch'esso esca a fine agosto - inizio settembre, no? o sbaglio?

24 agosto

Nos89
10-06-2007, 15:05
24 agosto

Qualche giocazzo oltre a Bioshok in arrivo per la fine dell'estate? mi sa che alla fine conveniva passare a settembre alle schede DX10 ci avremmo guadagnato tutti....purtroppo io avevo una x800Gto che era da cambiare assolutamente:)

+Lonewolf+
10-06-2007, 15:06
Qualche giocazzo oltre a Bioshok in arrivo per la fine dell'estate? mi sa che alla fine conveniva passare a settembre alle schede DX10 ci avremmo guadagnato tutti....purtroppo io avevo una x800Gto che era da cambiare assolutamente:)

mah...LP e mi pare un certo Overlord

-Feanor-
10-06-2007, 15:17
mah...LP e mi pare un certo Overlord

beh se parliamo di gioconi in generale overlord mi sta bene....ma non è dx 10...altri gioconi per l'estate... cmr:dirt ...elveon...et:quake wars...graw2....cmq siamo decisamente ot...:D

TecnoWorld8
10-06-2007, 15:26
secondo me, dati i fisiologici ritardi dei giochi (e considerato che non è obbligatorio giocarli subito) a sto punto conviene aspettare e vedere se nVidia farà uscire un successore di G80, considerato che R650 non esisterà ( :( )

-Feanor-
10-06-2007, 15:30
secondo me, dati i fisiologici ritardi dei giochi (e considerato che non è obbligatorio giocarli subito) a sto punto conviene aspettare e vedere se nVidia farà uscire un successore di G80, considerato che R650 non esisterà ( :( )

gia ma guarda che siamo sempre alle solite.....dopo g92, prima di comprare, vorrai vedere la risposta di ati.....nel frattempo viene annunciato un refresh di nvidia.....bla bla bla....e qui si invecchia....con computer piu vecchi di noi perche non ci decidiamo ad aggiornarli...cmq capisco come ti senti............uguale a me :asd:..........

TecnoWorld8
10-06-2007, 15:34
gia ma guarda che siamo sempre alle solite.....dopo g92, prima di comprare, vorrai vedere la risposta di ati.....nel frattempo viene annunciato un refresh di nvidia.....bla bla bla....e qui si invecchia....con computer piu vecchi di noi perche non ci decidiamo ad aggiornarli...cmq capisco come ti senti............uguale a me :asd:..........

no, beh, ad un certo punto sopraggiunge l'ingiocabilità totale a causa della senescenza della GPU posseduta...per esempio io sono assolutamente determinato ad acquistare il primo top di gamma in uscita d'ora in avanti, dato che XT non è stato tale.

Quindi penso che - a malincuore - tornerò ad nVidia, perchè non mi fido più di ATi, dopo questa scheda...ritardo folle e promesse prestazionali non mantenute. Secondo me sarà lo stesso con la prossima...

A.L.M.
10-06-2007, 15:44
secondo me, dati i fisiologici ritardi dei giochi (e considerato che non è obbligatorio giocarli subito) a sto punto conviene aspettare e vedere se nVidia farà uscire un successore di G80, considerato che R650 non esisterà ( :( )

Stando alle ultime notizie, non uscirà neppure un refresh di G80. Si passerà direttamente a G92 e a R700, molto probabilmente, a inizio 2008.

TecnoWorld8
10-06-2007, 15:47
Stando alle ultime notizie, non uscirà neppure un refresh di G80. Si passerà direttamente a G92 e a R700, molto probabilmente, a inizio 2008.

ciò sarebbe davvero strano e triste, considerando che G80 è sul mercato da 8 mesi...cmq ATi parla di R680 a gennaio, non di R700. poi tutto è possibile.

Poty...
10-06-2007, 15:48
mah...LP e mi pare un certo Overlord
oh ma quando cominciamo la mini sfida?:D attendo i tuoi bench;) così poi passiamo anche ad altri videogiochi dai daii

-Feanor-
10-06-2007, 15:51
no, beh, ad un certo punto sopraggiunge l'ingiocabilità totale a causa della senescenza della GPU posseduta...per esempio io sono assolutamente determinato ad acquistare il primo top di gamma in uscita d'ora in avanti, dato che XT non è stato tale.

Quindi penso che - a malincuore - tornerò ad nVidia, perchè non mi fido più di ATi, dopo questa scheda...ritardo folle e promesse prestazionali non mantenute. Secondo me sarà lo stesso con la prossima...

ah ah ah ....ingiocabilita....non ti dico la mia configurazione attuale.....:( ....ma i miei sono anche problemi economici....:cry: .....cmq stando alle ultime g92 a novembre e r680 a gennaio....ma sicuramente ci saranno dei ritardi...

TecnoWorld8
10-06-2007, 15:57
ah ah ah ....ingiocabilita....non ti dico la mia configurazione attuale.....:( ....ma i miei sono anche problemi economici....:cry: .....cmq stando alle ultime g92 a novembre e r680 a gennaio....ma sicuramente ci saranno dei ritardi...

davvero, dopo la delusione XT, prenderò al volo G92, dato che G80 è stato un grande prodotto, davvero eccezionale. Chi l'ha preso all'uscita, si è ritrovato una delle GPU più longeve di tutti i tempi nel permanere al top!

DjLode
10-06-2007, 16:21
davvero, dopo la delusione XT, prenderò al volo G92, dato che G80 è stato un grande prodotto, davvero eccezionale. Chi l'ha preso all'uscita, si è ritrovato una delle GPU più longeve di tutti i tempi nel permanere al top!

Ma direi proprio il contrario visto i risultati dei primi giochi dx10 ;)
Si è ritrovato con una grande scheda, la più veloce in dx9 e una delle più veloci in dx10 (dipende anche qui dai test), ma longeva proprio no.

7stars
10-06-2007, 16:29
Ma direi proprio il contrario visto i risultati dei primi giochi dx10 ;)
Si è ritrovato con una grande scheda, la più veloce in dx9 e una delle più veloci in dx10 (dipende anche qui dai test), ma longeva proprio no.
guarda se dura fino a novembre 2007 (e credo proprio d si)d questi tempi un prodotto ke sta al top un anno è anke + ke longevo imho

-Feanor-
10-06-2007, 16:31
guarda se dura fino a novembre 2007 (e credo proprio d si)d questi tempi un prodotto ke sta al top un anno è anke + ke longevo imho

sono d'accordo...ma forse lui intendeva che qst schede sono nate come dx10...e se qst è l'andazzo del frame rate, non ci si potra godere neanche un gioco dx10 sparato al massimo con esse....:muro:

TecnoWorld8
10-06-2007, 16:32
Ma direi proprio il contrario visto i risultati dei primi giochi dx10 ;)
Si è ritrovato con una grande scheda, la più veloce in dx9 e una delle più veloci in dx10 (dipende anche qui dai test), ma longeva proprio no.

se anche fosse così, considerando la quantità di giochi dx che sono sul mercato (quasi 0) direi che chi ha preso una GTX a novembre è rimasto al top almeno per 8 mesi. e probabilmente di più...cose quasi senza precedenti.

pensa che chi prende una XT ora, non solo non è al top da subito, ma presto sarà di gran lunga superata da quelle in uscita a fine anno...

TecnoWorld8
10-06-2007, 16:36
sono d'accordo...ma forse lui intendeva che qst schede sono nate come dx10...e se qst è l'andazzo del frame rate, non ci si potra godere neanche un gioco dx10 sparato al massimo con esse....:muro:

ah beh, certo, ma nemmeno con R600 che è uscita 7 mesi dopo, allora...il problema si presenta sempre, al cambio della tecnologia. le prime esponenti di quella nuova tecnologia, sono sempre destinate a far girare solo qualche tech demo iniziale...ma ripeto, se uno prendeva G80 a novembre non era per il dx10, dato che non esisteva, ma per avere una grande scheda DX9 che poi avrebbe avuto il bonus di poter traghettare nell'era DX10 senza doverla subito cambiare.

nei giorni nostri, poter tenere una scheda un anno giocandoci alla grande è decisamente una rarità. solitamente si gioca alla grande 6 mesi, poi altri 6 bene, poi altri 6 decentemente e poi la si cambia. secondo me con G80 si gioca 10-12 mesi al top, poi 6 mesi cm molto bene e altri 6 decentemente.

A.L.M.
10-06-2007, 16:38
Ma direi proprio il contrario visto i risultati dei primi giochi dx10 ;)
Si è ritrovato con una grande scheda, la più veloce in dx9 e una delle più veloci in dx10 (dipende anche qui dai test), ma longeva proprio no.

guarda se dura fino a novembre 2007 (e credo proprio d si)d questi tempi un prodotto ke sta al top un anno è anke + ke longevo imho

G80 è una scheda che ha mantenuto la testa della classifica per molto tempo, è vero (più per demerito di ATi che per meriti propri, probabilmente), ma come dice DjLode probabilmente non sarà una scheda longeva in senso assoluto (come lo fu, invece, R300). Dopo nemmeno un anno potrebbe già incontrare serie difficoltà nei giochi DX10 e se, come credo, nel 2008 usciranno giochi con uso intenso dei Geometry Shaders, dopo meno di 2 potrebbe già essere da buttare (le prestazioni nei test GS sono, a detta di esperti e programmatori, davvero basse).
Purtroppo questa generazione di schede ha sofferto di molti problemi a causa di assestamenti nel mercato (fusione AMD-ATi), librerie completamente nuove (cosa praticamente mai successa dai tempi delle prime DX), ecc...
La prossima generazione porterà sicuramente schede più equilibrate e con prestazioni adeguate in DX10.

A.L.M.
10-06-2007, 16:41
ah beh, certo, ma nemmeno con R600 che è uscita 7 mesi dopo, allora...il problema si presenta sempre, al cambio della tecnologia. le prime esponenti di quella nuova tecnologia, sono sempre destinate a far girare solo qualche tech demo iniziale...ma ripeto, se uno prendeva G80 a novembre non era per il dx10, dato che non esisteva, ma per avere una grande scheda DX9 che poi avrebbe avuto il bonus di poter traghettare nell'era DX10 senza doverla subito cambiare.

nei giorni nostri, poter tenere una scheda un anno giocandoci alla grande è decisamente una rarità. solitamente si gioca alla grande 6 mesi, poi altri 6 bene, poi altri 6 decentemente e poi la si cambia. secondo me con G80 si gioca 10-12 mesi al top, poi 6 mesi cm molto bene e altri 6 decentemente.

Il tuo discorso è giusto per chi la scheda la cambia ogni 12-18 mesi, ma occhio che c'è una bella fetta di utenza che le vga le cambia ogni 2-3 anni, e tra 3 anni G80 potrebbe proprio essere inutilizzabile (a causa dei succitati problemi coi GS). ;)

TecnoWorld8
10-06-2007, 16:48
Il tuo discorso è giusto per chi la scheda la cambia ogni 12-18 mesi, ma occhio che c'è una bella fetta di utenza che le vga le cambia ogni 2-3 anni, e tra 3 anni G80 potrebbe proprio essere inutilizzabile (a causa dei succitati problemi coi GS). ;)

a parte l'R300 da te citato, credo che nessuna scheda 3D sia stata fruibile troppo a lungo a livello decente. Se ora mi si dice che molti si accontentano di giocare a 800x600 con dettagli al minimo, allora forse ancor oggi una scheda uscita 3 anni fa lo consente, ma credo che allora anche G80 potrà farlo.

R300 è stata notevole perchè, uscita nel 2002, è stata decente fino al 2005. Sono stato possessore di una 9700PRO ed è probabilmente la scheda che ho amato di più in assoluto, tanto che averla venduta sono stato fuori dal mondo dei videogames su PC per due anni...fino all'acquisto del sistema in sign ad agosto scorso.

ad esempio la mia scheda (X1800) uscita a fine 2005/inizio 2006 è ancora utilizzabile ora con dettagli quasi massimi su tutti i giochi, ma è ovvio che con la prossima generazione in uscita a fine anno, non ce la farà più. è la sorte di tutte le schede, secondo me hanno 2 anni totali a dir tanto.

ma quasi tutte dopo 6 mesi sono già superate da altre, mentre G80 no.

Pinzo
10-06-2007, 17:07
Oltre che r300 io ci metterei anche r420,la mia x800 ha durato ben due annetti ai max livelli,poi purtroppo gli sm3 l'hanno un pò svalutata,ma era una grande scheda.
Vorrei fare una riflessione su questa mandata di gpu.
Quando ai tempi uscì r300,avevo appena acquistato una geffo4 ti 4600.
Niente che dire,in abbinamento ad un p4 2533 appena uscito,era la scheda cideo senza compromessi.
Dopo un mese,mi escesta radeon 9700pro,io motivato dall'entusiasmo delle nuove schede directx9 compatibili,vendo la 4600 e acquisto una 9700pro.
Faccio un paio di test,3dmark 2001 ecc.
Risultato,niente di entusiasmante.La scheda mi restituisce gli stessi 13500pti del 3dmark della geffo4.Tra l'altro era uscito mi sembra Unreal the Awakening che ho avuto modo di testare con entrambe le schede (in dx8),stessi o quasi risultati.Incominciai a domandarmi dove fosse la differenza.
Uscì poi un certo Tomb raider Angel of Darkness credo uno dei primi giochi dx9,ed ecco che la delusione iniziale si trasforma in un generale appagamento.
La fida 9700 pro eseguiva quel gioco in maniera impeccabile e con tutti gli effetti attivati,e,devo dire la verità mi aveva abbastanza impressionato.
Dopo uscirono tutti gli altri game dx9 ecc ecc. e la differenza tra r600 e nv25 si faceva nettamente evidente.
Quindi,la mia riflessione è questa:
Aspettiamo le vere Killer application per giudicare questa scheda.Sopratutto Crysis,Bioshock ecc.

×§ñåkê×
10-06-2007, 19:27
e pensare che una voodoo 5 6000 che fu creata anni prima della radeon 9800, messa in confronto diretto, la radeon non dico che ne usciva con le ossa rotte ma quasi... peccato solo che 3dfx sia stata acquisita da nvidia, loro erano + avanti di tutti nel campo delle schede video. a quest'ora chissà che schede potevamo avere se erano ancora in piedi

TecnoWorld8
10-06-2007, 19:33
tutto è certamente possibile; tuttavia le notizie di un G92 che sfiorerà un teraflop di potenza, mi fanno pensare che forse le prossime applicazioni richiederanno davvero tanta, tanta potenza, che nessuna delle schede esistenti possiede.

Sicuramente, comunque, se una GF4 poteva essere sostituita sicuramente da una 9700PRO, che indubbiamente era superiore in tutto, una 8800GTX (ma nemmeno una GTS, se uno l'avesse) non verrebbe da nessuno sostituita con una HD2900XT...anche se magari quest'ultima avrà il jolly da giocarsi nel DX10, come spero per ATi.

Indubbiamente, però, le "vere" schede DX10 arriveranno dopo l'estate e temo che ATi sarà di nuovo in ritardo.

Grey 7
10-06-2007, 19:54
Indubbiamente, però, le "vere" schede DX10 arriveranno dopo l'estate e temo che ATi sarà di nuovo in ritardo.

a sto punto è da vedere in che situazione di contestualizzerà questo ritardo, il periodo è troppo delicato e non si capisce ancora come andranno queste schede. I risultati che si iniziano a vedere fanno sperare po che niente. Mi viene da pensare che comprare "in ritardo" sia la mossa piu azzeccata (in questo periodo e nei mesi a seguire) perchè si diminuisce il rischio di acquistare un prodotto che potrebbe non servire a nulla. Il tutto dipenderà da quanto (e quando) si diffonderà Vista e i primi giochi dx10. Ora come ora non comprerei una scheda video manco se avessi una geffo 2 e penso che anche dopo l'estate la situazione sarà ancora contorta. Imho, il 2008 schiarirà le idee un po' a tutti :D

TecnoWorld8
10-06-2007, 19:56
se G92 uscisse davvero attorno a novembre e fosse potente come dicono, penso lo comprerei anche se costasse 600€. Poi è ovvio che nel 2008 uscirà qualcosa di meglio, ma una scheda come quella sarà già creata principalmente con le dx10 in mente, a differenza di quelle attuali.

A.L.M.
10-06-2007, 20:17
tutto è certamente possibile; tuttavia le notizie di un G92 che sfiorerà un teraflop di potenza, mi fanno pensare che forse le prossime applicazioni richiederanno davvero tanta, tanta potenza, che nessuna delle schede esistenti possiede.

Sulla potenza mi trovi d'accordo, sui numeri da reclame, meno. Potrebbero essere falsati così come lo erano quelli di G80 (sulla carta maggiore capacità di calcolo, poi in realtà le MUL aggiuntive quasi non funzionano).

Indubbiamente, però, le "vere" schede DX10 arriveranno dopo l'estate e temo che ATi sarà di nuovo in ritardo.

Su questo a parer mio c'è ancora molto dubbio. Secondo me le vere DX10 saranno G92 e R700 (vedo molto difficile un semplice aggiornamento di R600, il fatto stesso che abbiano già optato per il numero "9" dopo il 2 farebbe presupporre delle schede di transizione, che non avranno aggiornamenti, altrimenti penso l'avrebbero chiamata HD2800), che usciranno tra novembre 2007 e inizio 2008.
Su chi la spunterà, secondo me la partita è apertissima. La netta superiorità di G80 è molto probabilmente relativa solo alle DX9: c'è tutta la probabilità che la GTX e la XT si equivalgano (o addirittura che in qualche gioco la XT la superi) in DX10. La sfida ovviamente con la prossima generazione sarà quasi esclusivamente sulle DX10 (ovviamente qualche bench in DX9 si farà ancora, ma avrà scarsa importanza), e lì, almeno quanto a soluzioni tecniche, ATi si è portata parecchio avanti: gestione degli shader lunghi, tessellation unit, nuovi modi di gestire l'AA, prestazioni nel geometry shading, sono tutti campi in cui nVidia dovrà inseguire. ;)

7stars
10-06-2007, 20:21
se G92 uscisse davvero attorno a novembre e fosse potente come dicono, penso lo comprerei anche se costasse 600€. Poi è ovvio che nel 2008 uscirà qualcosa di meglio, ma una scheda come quella sarà già creata principalmente con le dx10 in mente, a differenza di quelle attuali.
io spero in un g92 nell'ipotetica versione gts che anke andasse come la gtx attuale in dx10 o poco + ovviamente allo stesso prezzo della 8800gts :D

appleroof
10-06-2007, 20:24
io spero in un g92 nell'ipotetica versione gts che anke andasse come la gtx attuale in dx10 o poco + ovviamente allo stesso prezzo della 8800gts :D

io invece spero in una R700 nell'ipotetica versiopne xl che vada come l'attuale 2900xt in dx10, ovviamente allo stesso prezzo della 2600xt

ma in che tread siamo?? :confused: non ci sto a capire più niente :asd:

Grey 7
10-06-2007, 20:30
io spero in un g92 nell'ipotetica versione gts che anke andasse come la gtx attuale in dx10 o poco + ovviamente allo stesso prezzo della 8800gts :D

ai voglia a sperare :asd: A me basta una vera dx10

7stars
10-06-2007, 20:41
io invece spero in una R700 nell'ipotetica versiopne xl che vada come l'attuale 2900xt in dx10, ovviamente allo stesso prezzo della 2600xt

ma in che tread siamo?? :confused: non ci sto a capire più niente :asd:
siamo nel thread di una gpu che ci ha tanto convinto da parlare della concorrente :D dai infatti lasciamo stare nvidia qui,anch'io non mi rendevo + conto perchè avevo pure il thread 8800 aperto
ai voglia a sperare :asd: A me basta una vera dx10
direi anche software vero dx10 :asd: secondo me siamo tutti rimandati a settembre per i veri benchs

Iantikas
10-06-2007, 20:43
ho provato la demo di colin mcrae dirt...ke dire mi piace :D e l'ho aquistato in preordine x il 15/06...

...il lato negativo xò è ke è abb pesantuccio e con la X1900XTX x avere fluidità ottimale devo andare a 1024x768, dettagli Ultra ma senza AA (si potrebbe andare anke a 1280x960 ma anke se nn va a scatti inzia a rallentarsi)...

...ed ecco ke quindi forse è nato il motivo ke mi spingerà all'aquisto d R600:mc: ...quindi avrei una piccola rikiesta (tanto x cambiare :D )...ki ha la Hd2900XT può fare dei test con la demo e dirmi con ke impostazioni riesce a giocare fluidamente???...ciao

+Lonewolf+
10-06-2007, 21:00
ho provato la demo di colin mcrae dirt...ke dire mi piace :D e l'ho aquistato in preordine x il 15/06...

...il lato negativo xò è ke è abb pesantuccio e con la X1900XTX x avere fluidità ottimale devo andare a 1024x768, dettagli Ultra ma senza AA (si potrebbe andare anke a 1280x960 ma anke se nn va a scatti inzia a rallentarsi)...

...ed ecco ke quindi forse è nato il motivo ke mi spingerà all'aquisto d R600:mc: ...quindi avrei una piccola rikiesta (tanto x cambiare :D )...ki ha la Hd2900XT può fare dei test con la demo e dirmi con ke impostazioni riesce a giocare fluidamente???...ciao

se mi dai il link di un sito veloce te lo faccio io

Gioman
10-06-2007, 21:30
colin mattone (http://www.gamershell.com/downloads/init.php)

Foglia Morta
10-06-2007, 21:37
non so se questi link erano già stati postati

http://www.ncix.com/bundles.php/HD2900XT1GB/
http://www.ncix.com/products/index.php?sku=24679

825Mhz 1GB GDDR4 2100Mhz

Edit: 535 $ , vedremo come si comporterà

TecnoWorld8
10-06-2007, 21:54
hmm...sulla frequenza della GPU, credo che molte XT arrivino ad oltre 800Mhz e probabilmente anche agli 825Mhz della 1GB. Sulla quantità di memoria, credo davvero che 1GB, rispetto ai 512MB, inizieranno "forse" a mostrare vantaggi con Crysis alle alte risoluzioni.
La maggior frequenza della memoria, infine, penso che inciderà davvero poco sulle prestazioni, data l'enorme banda già disponibile alla XT.

Insomma, non vedo motivato il prezzo di questa versione.

loperloper
10-06-2007, 22:18
meglio cambiare il nome del 3d in aspettando R700 tanto ormai non si parla più di R600 ma di VGA in generale(R300 G92 G80 ecc) ormai abbiamo capito quello che è e una versione da 1gb non salverà la situazione

A.L.M.
10-06-2007, 22:30
meglio cambiare il nome del 3d in aspettando R700 tanto ormai non si parla più di R600 ma di VGA in generale(R300 G92 G80 ecc) ormai abbiamo capito quello che è e una versione da 1gb non salverà la situazione

Beato te che hai queste certezze... :rolleyes:

×§ñåkê×
10-06-2007, 22:32
hmm...sulla frequenza della GPU, credo che molte XT arrivino ad oltre 800Mhz e probabilmente anche agli 825Mhz della 1GB. Sulla quantità di memoria, credo davvero che 1GB, rispetto ai 512MB, inizieranno "forse" a mostrare vantaggi con Crysis alle alte risoluzioni.
La maggior frequenza della memoria, infine, penso che inciderà davvero poco sulle prestazioni, data l'enorme banda già disponibile alla XT.

Insomma, non vedo motivato il prezzo di questa versione.

ma se il core è sempre quello, come fa sulla versione 1gb a stare a 825 mhz? in teoria ci dovrebbero arrivare tranquillamente anche le nostre a quella frequenza? giusto?

emax81
10-06-2007, 22:34
512Mb bastano a 1920x1200 o meglio passare alla versione a 1Gb? ( prezzo permettendo) :D


Sapphire

si sà inoltre qualcosa su questo dissi montato sulla sapphire visto al computex?

http://img374.imageshack.us/img374/6987/000000058763fh4.jpg

Chief
10-06-2007, 22:39
Infatti non ho capito perchè vengono tutti i quest thred a parlare di altre schede video:O

meglio cambiare il nome del 3d in aspettando R700 tanto ormai non si parla più di R600 ma di VGA in generale(R300 G92 G80 ecc) ormai abbiamo capito quello che è e una versione da 1gb non salverà la situazione

Per te la situazione può essere critica, per molti no, e nemmeno per me...IMHO ATi si è portata parecchio avanti con r600 esempi netti:nuovi modi di gestire l'antialaising ,gestione degli shader lunghi, tessellation unit, prestazioni nel geometry shading:O non vedo niente da salvare sinceramente :D

MonsterMash
10-06-2007, 22:48
ho provato la demo di colin mcrae dirt...ke dire mi piace :D e l'ho aquistato in preordine x il 15/06...

...il lato negativo xò è ke è abb pesantuccio e con la X1900XTX x avere fluidità ottimale devo andare a 1024x768, dettagli Ultra ma senza AA (si potrebbe andare anke a 1280x960 ma anke se nn va a scatti inzia a rallentarsi)...

...ed ecco ke quindi forse è nato il motivo ke mi spingerà all'aquisto d R600:mc: ...quindi avrei una piccola rikiesta (tanto x cambiare :D )...ki ha la Hd2900XT può fare dei test con la demo e dirmi con ke impostazioni riesce a giocare fluidamente???...ciao

Ciao, ho appena fatto un bench con colin mcRea dirt e con la configurazione in signa. Per l'occasione ho overclocckato un po' la 2900xt, a 850 / 1800.
Le impostazioni del gioco erano 1280x1024 con tutto il settabile al massimo (dettagli + filtri). Mi sono posto nelle condizioni peggiori, ovvero ho fatto il bench durante il replay della gara delle buggy, la più pesante (e di parecchio) tra quelle presenti nella demo.
Ecco i risultati:

fps: Min: 16; Max: 34; Avg: 23.269

Come nota personale posso dire che stranamente questo gioco non sembra particolarmente scattoso neanche con frame rate di 20 fps.
Aggiungo inoltre che il bench l'ho effettuato sotto windows vista 64.

Confido comunque che ci possano essere miglioramenti notevoli in questo gioco con le prossime realese dei drivers.

Spero di esserti stato d'aiuto.

Ciao

medroa
10-06-2007, 22:56
Scusate ma nelle specifiche della 2900xt della foto che ha postato emax si parlano di 128 shader pipeline(non è la 8800 gtx ad averne 128?o quelli sono gli stream processors?)!io ero rimasto a 64 * 5 = 320 stream processor...forse non capisco io..qualcuno può spiegarmi allora cm mai ci sono ste 128 pipeline?:mbe: sono io che capisco nà mazza probabilmente ma qualcuno abbia pietà e mi racconti tutto!, grazieeee

loperloper
10-06-2007, 22:59
Infatti non ho capito perchè vengono tutti i quest thred a parlare di altre schede video:O



Per te la situazione può essere critica, per molti no, e nemmeno per me...IMHO ATi si è portata parecchio avanti con r600 esempi netti:nuovi modi di gestire l'antialaising ,gestione degli shader lunghi, tessellation unit, prestazioni nel geometry shading:O non vedo niente da salvare sinceramente :D

magari un consumo più umano?quello è il punto dolente e non c'è driver che tenga

Poliphilo
10-06-2007, 23:11
Ho appena smontato la HD2900XT per prepararla al liquido :sofico:
Che bello il core pulito dalla pasta dissipatoria: è uno specchio. :eek:

TecnoWorld8
10-06-2007, 23:13
Infatti non ho capito perchè vengono tutti i quest thred a parlare di altre schede video:O



Per te la situazione può essere critica, per molti no, e nemmeno per me...IMHO ATi si è portata parecchio avanti con r600 esempi netti:nuovi modi di gestire l'antialaising ,gestione degli shader lunghi, tessellation unit, prestazioni nel geometry shading:O non vedo niente da salvare sinceramente :D

sono felice per chi è soddisfatto di questa scheda perchè, sulla carta, ha una buona architettura. ma io non l'ho presa osservando i seguenti dati:

- benchmark
- consumi

e valutando le prospettive del futuro imminente, considerando che il livello cui si posiziona come prestazioni esiste sul mercato da 8 mesi e dunque penso sarà presto superato (e non di poco) da una nuova generazione di schede.

TecnoWorld8
10-06-2007, 23:15
Ciao, ho appena fatto un bench con colin mcRea dirt e con la configurazione in signa. Per l'occasione ho overclocckato un po' la 2900xt, a 850 / 1800.
Le impostazioni del gioco erano 1280x1024 con tutto il settabile al massimo (dettagli + filtri). Mi sono posto nelle condizioni peggiori, ovvero ho fatto il bench durante il replay della gara delle buggy, la più pesante (e di parecchio) tra quelle presenti nella demo.
Ecco i risultati:

fps: Min: 16; Max: 34; Avg: 23.269

Come nota personale posso dire che stranamente questo gioco non sembra particolarmente scattoso neanche con frame rate di 20 fps.
Aggiungo inoltre che il bench l'ho effettuato sotto windows vista 64.

Confido comunque che ci possano essere miglioramenti notevoli in questo gioco con le prossime realese dei drivers.

Spero di esserti stato d'aiuto.

Ciao

secondo me sono prestazioni davvero molto, molto basse, considerando la risoluzione e che hai anche overclockato di circa 15% la scheda, praticamente al suo limite. sarebbe interessante sapere quanto fanno una GTX ed una ultra in pari condizioni. vero è che il bench è pesante, ma sulla mia scheda in sign faccio dagli 11 ai 25fps circa nel percorso delle buggy, quindi dalla 2900 mi aspettavo MOLTO meglio, almeno il doppio...

tommydc
10-06-2007, 23:35
meglio cambiare il nome del 3d in aspettando R700 tanto ormai non si parla più di R600 ma di VGA in generale(R300 G92 G80 ecc) ormai abbiamo capito quello che è e una versione da 1gb non salverà la situazione

ma scusate perchè non la finite voi che avete le 8800gts o le gtx a fare interventi di questo genere? ma che siamo all'asilo!?
Perfavore solo post costruttivi, non se ne può veramente più.:read:

grazie

Chief
10-06-2007, 23:39
magari un consumo più umano?quello è il punto dolente e non c'è driver che tenga
Questo sicuramente ma non mi sembra il caso di dire che l' ati corra ai ripari con la versione da 1gb;)

sono felice per chi è soddisfatto di questa scheda perchè, sulla carta, ha una buona architettura. ma io non l'ho presa osservando i seguenti dati:

- benchmark
- consumi

e valutando le prospettive del futuro imminente, considerando che il livello cui si posiziona come prestazioni esiste sul mercato da 8 mesi e dunque penso sarà presto superato (e non di poco) da una nuova generazione di schede.

Valutandola sotto il profilo dx9 e xp la scheda personalmente non mi ha deluso provenendo io da 1900xt va sempre il doppio ...poi testando i vari giochi in mio possesso non sono rimasto affatto interdetto sulle prestazione...dove sono rimasto particolarmente colpito sicuramente dalle prestazioni di R6vegas(ingiocabile con le ombre alte quando avevo la 1900xt),Oblivion,SCDA,Age of empire3(con questi 3 giochi dovevo cercare compremessi per poterli giocare)...comunque mi sono assicurato di giocare ai giochi futuri almeno fino a dicembre decentemente:O Sempre IMHO aspetto con ansia nuovi titoli per poterla testare prima su tutti bioshock e strangerhold :D (aspettando anche una nuova release di driver che ce ne veramente bisogno visto che molti giochi sono buggati) E succedeno cose strane ad aumento di risoluzione prendendo in esempio un gioco capita che a 1280 faccia una media di 60 fps alzando risoluzione gli fps aumentano


Ciao, ho appena fatto un bench con colin mcRea dirt e con la configurazione in signa. Per l'occasione ho overclocckato un po' la 2900xt, a 850 / 1800.
Le impostazioni del gioco erano 1280x1024 con tutto il settabile al massimo (dettagli + filtri). Mi sono posto nelle condizioni peggiori, ovvero ho fatto il bench durante il replay della gara delle buggy, la più pesante (e di parecchio) tra quelle presenti nella demo.
Ecco i risultati:

fps: Min: 16; Max: 34; Avg: 23.269

Come nota personale posso dire che stranamente questo gioco non sembra particolarmente scattoso neanche con frame rate di 20 fps.
Aggiungo inoltre che il bench l'ho effettuato sotto windows vista 64.

Confido comunque che ci possano essere miglioramenti notevoli in questo gioco con le prossime realese dei drivers.

Spero di esserti stato d'aiuto.

Ciao

Mi sembrano molto bassini anche in OC sinceramente il gioco l'ho provato a default e nn scende mai sotto io 30 fps(xp)tutto alto,potrebbero essere i driver???:sofico: chissà;):sofico:

MonsterMash
10-06-2007, 23:46
Mi sembrano molto bassini anche in OC sinceramente il gioco l'ho provato a default e nn scende mai sotto io 30 fps(xp)tutto alto,potrebbero essere i driver???:sofico: chissà;)

Piuttosto propenderei per un problema di potenza della cpu, visto che è l'unica cosa che ho sensibilmente inferiore rispetto alla tua configurazione. E cmq, vorrei essere sicuro che stiamo confrontandoci nelle stesse condizioni: anche io nelle altre gare non scendo mai sotto i 30fps. E' quella delle buggy che è particolarmente pesante (ed è anche molto più curata graficamente, secondo me). Prova a settare tutto su ultra, 1280x1024 e a benchare con fraps (che durante il bench ho letto si mangia circa 2-3fps di media) per tutto il replay. Poi magari fammi sapere esattamente il risultato che hai ottenuto (max, min e avg).

Ciao

P.S. Dimenticavo: per ipotizzare che sia un problema di driver vuol dire che tu pensi di avere dei driver più recenti dei miei: che versione stai usando? Io la 7.5 ufficiale.

Chief
10-06-2007, 23:54
Piuttosto propenderei per un problema di potenza della cpu, visto che è l'unica cosa che ho sensibilmente inferiore rispetto alla tua configurazione. E cmq, vorrei essere sicuro che stiamo confrontandoci nelle stesse condizioni: anche io nelle altre gare non scendo mai sotto i 30fps. E' quella delle buggy che è particolarmente pesante (ed è anche molto più curata graficamente, secondo me). Prova a settare tutto su ultra, 1280x1024 e a benchare con fraps (che durante il bench ho letto si mangia circa 2-3fps di media) per tutto il replay. Poi magari fammi sapere esattamente il risultato che hai ottenuto (max, min e avg).

Ciao

P.S. Dimenticavo: per ipotizzare che sia un problema di driver vuol dire che tu pensi di avere dei driver più recenti dei miei: che versione stai usando? Io la 7.5 ufficiale.

No che non ho driver più recenti(io uso xp) dei tuoi ma sicuramente il problema sono i driver per vista provando anche R6vegas dove sotto vista fa molti fps in meno (avendo i due sistemi operativi)si sul test della buggy scende anche a me sotto i 30 fps ma estremamente giocabile anche a 25 fps resta molto fluido:D

+Lonewolf+
11-06-2007, 00:38
io ho vista e giocando a r6vegas ho notato una cosa mooolto particolare

in alcuni punti, dove praticamente nn c'è nulla di strano, il gioco scende a 9 fps, come se ci fosse un effetto pesantissimo...poi se mi muovo di 1 passo il frame rate torna a 70...mah

TecnoWorld8
11-06-2007, 00:44
davvero scandaloso che in colin dirt, nell'unico scenario davvero bello di grafica, non si arrivi a 30fps a 1280...mah! sarà il gioco davvero programmato male, dato che deve girare anche su xbox 360...

Nos89
11-06-2007, 00:51
davvero scandaloso che in colin dirt, nell'unico scenario davvero bello di grafica, non si arrivi a 30fps a 1280...mah! sarà il gioco davvero programmato male, dato che deve girare anche su xbox 360...

il gioco gira benissimo sulla mia configurazione in firma @1280*1024 sicuramente hai impostato male i filtri o hai driver vecchi....(+probabile di tutte Vista fa cagare)

MonsterMash
11-06-2007, 01:16
il gioco gira benissimo sulla mia configurazione in firma @1280*1024 sicuramente hai impostato male i filtri o hai driver vecchi....(+probabile di tutte Vista fa cagare)


Non è la prima volta che ti leggo dire che a te va benissimo con tutto al massimo, ma leggendo rapidamente il thread ufficiale della demo pare che neanche sulle 8800gtx vada poi così bene. Sei sicuro di aver impostato tutto su "ultra", e di aver testato il livello delle buggy (mi pare si chiami rallycross)? Perchè in quel particolare stage i frame calano vertiginosamente. Anche io vado a oltre 30 fps di minima nelle altre prove, ma non in quella delle buggy.

Ciao

Chief
11-06-2007, 01:19
il gioco gira benissimo sulla mia configurazione in firma @1280*1024 sicuramente hai impostato male i filtri o hai driver vecchi....(+probabile di tutte Vista fa cagare)

E come al solito thread 2900 si sta trasformando in thread GeForce :D

Non è la prima volta che ti leggo dire che a te va benissimo con tutto al massimo, ma leggendo rapidamente il thread ufficiale della demo pare che neanche sulle 8800gtx vada poi così bene. Sei sicuro di aver impostato tutto su "ultra", e di aver testato il livello delle buggy (mi pare si chiami rallycross)? Perchè in quel particolare stage i frame calano vertiginosamente. Anche io vado a oltre 30 fps di minima nelle altre prove, ma non in quella delle buggy.

Ciao

Perfettamente daccordo quello stage è davvero pesante:fagiano:

medroa
11-06-2007, 07:13
http://img374.imageshack.us/img374/6987/000000058763fh4.jpg

Scusate ma nelle specifiche della 2900xt della foto che ha postato emax si parlano di 128 shader pipeline(non è la 8800 gtx ad averne 128?o quelli sono gli stream processors?)!io ero rimasto a 64 * 5 = 320 stream processor...forse non capisco io..qualcuno può spiegarmi allora cm mai ci sono ste 128 pipeline?:mbe: sono io che capisco nà mazza probabilmente ma qualcuno abbia pietà e mi racconti tutto!, grazieeee

Nessuno mi può spiegare?:read:

Defragg
11-06-2007, 07:24
Nessuno mi può spiegare?:read:
hanno sbagliato a scrivere ;)

gogetas
11-06-2007, 10:33
colin è sempre stato programmato dimmerda, ricordo colin 2 con la gf 4600 nuova appena uscita (615€ :eek: ) e pc nuovo nuovissimo con l'aa andava a scatti...

Pat77
11-06-2007, 10:47
Colin è assolutamente giocabile su 2900xt e ha un impatto visivo vermante notevole, si parla di 1280 con FSAA 4x per un gioco di corsa che spinge veramente al limite il PC, non vedo cosa ci sia da lamentarsi, tra l'altro mi sembra pure ottimizzato.

garbage
11-06-2007, 10:50
colin è sempre stato programmato dimmerda, ricordo colin 2 con la gf 4600 nuova appena uscita (615€ :eek: ) e pc nuovo nuovissimo con l'aa andava a scatti...

si nota se nn metto medio nn e giocabile sulla mia 7800:mc: :muro:

nickdc
11-06-2007, 11:56
Radeon HD 2900 XT 1 Gbyte: è ufficiale
Paolo Corsini
“Al debutto il 14 Giugno la prima scheda video per sistemi desktop dotata di ben 1 Gbyte di memoria onboard”


Confermato per il prossimo 14 Giugno il debutto delle schede video ATI Radeon HD 2900 XT con 1 Gbyte di memoria video, soluzioni delle quali abbiamo parlato nei giorni scorsi nelle seguenti notizie:

Radeon HD 2900 XT 1 Gbyte in vendita?
Un primo etailer fornisce informazioni sulla prossima commeercializzazione di schede R600 con 1 Gbyte di memoria, ma alcuni dubbi restano

Le prime immagini di una ATI Radeon HD 2900 XT a 1 Gbyte
Le notizie del debutto di una scheda Radeon HD 2900 XT con memoria raddoppiata prendono sempre più corpo

Radeon HD 2900 XT con 1 Gbyte di memoria
Indiscrezioni indicano al debutto una nuova versione di scheda R600, con 1 Gbyte di memoria video on board

La fonte è Diamond Multimedia, uno dei partner nord americani di ATI nella commercializzazione delle schede video della famiglia Radeon; Giovedì prossimo il produttore americano renderà disponibili queste schede video ma non nel canale retail: non sarà quindi possibile acquistare una di queste schede per aggiornare il proprio sistema. Diamond ha infatti scelto di commercializzare queste schede solo in sistemi di vari partner OEM che operano nel mercato nord americano, tra i quali segnaliamo Biohazard Computer Systems, Inc., Extreme PC, Falcon North West, Maingear, Memory Express, NCIX, Smooth Creations, Velocity Micro, Vigor e XI.

Mancano al momento attuale dettagli circa le frequenze di clock di queste nuove schede: è presumibile che le specifiche saranno superiori a quelle delle soluzioni ATI Radeon HD 2900 XT con 512 Mbytes di memoria video disponibili sul mercato, ma stante l'incertezza sulle informazioni pubblicate nei giorni scorsi non è ancora ben chiaro quali frequenze di clock verranno adottate per queste schede.

http://www.hwupgrade.it/news/skvideo/radeon-hd-2900-xt-1-gbyte-e-ufficiale_21519.html

7stars
11-06-2007, 12:57
non sarà quindi possibile acquistare una di queste schede per aggiornare il proprio sistema. Diamond ha infatti scelto di commercializzare queste schede solo in sistemi di vari partner OEM che operano nel mercato nord americano
quindi diciamo che sarà inutile,almeno quella distribuita da Diamond a meno d non comprare un computer dall'America,voi c state pensando?? :D ma c saranno soluzioni CF o bisogna comprare 2 computer dall'America per avere 2 gpu da 1 GB? bella mossa Diamond :asd:

TecnoWorld8
11-06-2007, 13:01
sono solo speculazioni, ma danno HD2900XT in vantaggio su crysis:

http://img378.imageshack.us/img378/9627/ati1iv6.jpg

http://img378.imageshack.us/img378/1076/nvidia1ij2.jpg

MonsterMash
11-06-2007, 13:05
sono solo speculazioni, ma danno HD2900XT in vantaggio su crysis:

http://img378.imageshack.us/img378/9627/ati1iv6.jpg

http://img378.imageshack.us/img378/1076/nvidia1ij2.jpg

Dove hai trovato queste tabelle?

Poty...
11-06-2007, 13:06
fossero veri sti test il mio pc lo farà girare alla grande poi con la mia vga clokkata! che cmq per l'occasione crysis salirà a 700mhz;) i driver e il resto faranno da contorno per alzare quei 50fps della gts a default

cmq sarebbe buono per ati che andasse così ma che io sappia crytek ha lavorato a stretto contatto con nvidia...bu staremo a vedere!

Chief
11-06-2007, 13:06
sono solo speculazioni, ma danno HD2900XT in vantaggio su crysis:

http://img378.imageshack.us/img378/9627/ati1iv6.jpg

http://img378.imageshack.us/img378/1076/nvidia1ij2.jpg

Hai detto bene sono solo speculazioni:O comunque tanto per sapere dove hai preso sti test?

7stars
11-06-2007, 13:07
sono solo speculazioni, ma danno HD2900XT in vantaggio su crysis:

molto speculated se scrivono xtx :asd: cmq rivaluterei l'acquisto se facesse 65fps a 1280x1024

TecnoWorld8
11-06-2007, 13:07
chiedo scusa, ho dimenticato di citare la fonte!!! :cry:

http://www.fx57.net/?p=714

Poty...
11-06-2007, 13:09
ummm ma non esiste una HD2x00 XTX
poi non capisco perchè proprio la 2900 la considerano come 2x00 come se fosse tutta la serie 2000 a farla andare a quel frame rate...bu

Chief
11-06-2007, 13:10
fossero veri sti test il mio pc lo farà girare alla grande poi con la mia vga clokkata! che cmq per l'occasione crysis salirà a 700mhz;) i driver e il resto faranno da contorno per alzare quei 50fps della gts a default

cmq sarebbe buono per ati che andasse così ma che io sappia crytek ha lavorato a stretto contatto con nvidia...bu staremo a vedere!

EHeh subito a difendere appena escono dei test dove la 2900 è sopra alle Geforce:D scherzi a parte sono puramente speculazioni quindi niente di vero

Catan
11-06-2007, 13:13
tabelle interessanti anche se credo siano old...

non si parla di hd2900xt ma di hd2x00xtx visto che la versione xtx è stata cancellata non si sa se hanno testato su una da 1gb di memoria o da 512 e a quali frequenze.
la scritta hd2x00xtx mi fa credere anche che questi test siano stati fatti anche tempo fà quando ancora non si sapeva se il nome ufficiale era 2900 o 2800

cmq alla fine se questi test fossero veritieri sto crysis non mi sembra cosi ammazza schede visto che cmq anche a 1280 con settagi high risulta praticamente giocabile con le x1800,x1900 e 7900.

altra cosa che mi puzza di fake è il fatto che i divari sono esclusivamente di step di 5fps tra le varie vga e scusatemi se dubito nsomma la differenza tra una x1650pro e una x1900xt è decisamente superiore ai 10fps nella tabella...

Chief
11-06-2007, 13:17
tabelle interessanti anche se credo siano old...

non si parla di hd2900xt ma di hd2x00xtx visto che la versione xtx è stata cancellata non si sa se hanno testato su una da 1gb di memoria o da 512 e a quali frequenze.
la scritta hd2x00xtx mi fa credere anche che questi test siano stati fatti anche tempo fà quando ancora non si sapeva se il nome ufficiale era 2900 o 2800

cmq alla fine se questi test fossero veritieri sto crysis non mi sembra cosi ammazza schede visto che cmq anche a 1280 con settagi high risulta praticamente giocabile con le x1800,x1900 e 7900.

altra cosa che mi puzza di fake è il fatto che i divari sono esclusivamente di step di 5fps tra le varie vga e scusatemi se dubito nsomma la differenza tra una x1650pro e una x1900xt è decisamente superiore ai 10fps nella tabella...

Ricordo che sono solo supposizioni e non ce niente di vero in questi test ;)

Poty...
11-06-2007, 13:22
EHeh subito a difendere appena escono dei test dove la 2900 è sopra alle Geforce:D scherzi a parte sono puramente speculazioni quindi niente di vero

no no! io so semrpe imparziale! è che è proprio l'unica scheda che è specificata male! le altre so giuste di nomi capito? cioè perchè chiamarla 2X00 XTX quando l'unica ATI in commercio è la 2900XT? poi sembra fatto apposta per farci discutere proprio su sto fatto immaginavo che qualcuno mi criticava anche scherzosamente del fatto che puntavo il dito proprio sul quello:D

JoeLatino
11-06-2007, 13:24
anche queste sono supposizioni????

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1420&Itemid=1

Chief
11-06-2007, 13:25
no no! io so semrpe imparziale! è che è proprio l'unica scheda che è specificata male! le altre so giuste di nomi capito? cioè perchè chiamarla 2X00 XTX quando l'unica ATI in commercio è la 2900XT? poi sembra fatto apposta per farci discutere proprio su sto fatto immaginavo che qualcuno mi criticava anche scherzosamente del fatto che puntavo il dito proprio sul quello:D

Figurati io questi test non li giudico proprio :O aspetto i test reali :D anche perchè prima di vedere crysis ci vorrà ancora un po di tempo:read:

Poty...
11-06-2007, 13:26
tabelle interessanti anche se credo siano old...

non si parla di hd2900xt ma di hd2x00xtx visto che la versione xtx è stata cancellata non si sa se hanno testato su una da 1gb di memoria o da 512 e a quali frequenze.
la scritta hd2x00xtx mi fa credere anche che questi test siano stati fatti anche tempo fà quando ancora non si sapeva se il nome ufficiale era 2900 o 2800

cmq alla fine se questi test fossero veritieri sto crysis non mi sembra cosi ammazza schede visto che cmq anche a 1280 con settagi high risulta praticamente giocabile con le x1800,x1900 e 7900.

altra cosa che mi puzza di fake è il fatto che i divari sono esclusivamente di step di 5fps tra le varie vga e scusatemi se dubito nsomma la differenza tra una x1650pro e una x1900xt è decisamente superiore ai 10fps nella tabella...
si infatti ho pensato questo anche io forse so test "fake" suppositivi vekki...

3DMark79
11-06-2007, 13:26
Non so se già avete visto anche questi e sembra andare abbastanza bene sia con N-Vidia che con Ati.
http://www.3dfxzone.it/news/puntatore.php?uid=4807
Scusate ma mi fate capire come mettete gli allegati che più grandi di 24,4 kb non si possono mettere?Visto che vedo voi ragazzi che ne mettete di piccoli KB e poi appena aperti diventano ad alta risoluzione :confused: .Grazie mille! :D

Chief
11-06-2007, 13:27
anche queste sono supposizioni????

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1420&Itemid=1

Continuiamo a inquinare questo thread qualcun altro??:D si accomodi pure :Prrr:

nickdc
11-06-2007, 13:28
Non so se già avete visto anche questi e sembra andare abbastanza bene sia con N-Vidia che con Ati.
http://www.3dfxzone.it/news/puntatore.php?uid=4807
Scusate ma mi fate capire come mettete gli allegati che più grandi di 24,4 kb non si possono mettere?Visto che vedo voi ragazzi che ne mettete di piccoli KB e poi appena aperti diventano ad alta risoluzione :confused: .Grazie! :D

Devi caricare le immagini su imageshack.us e poi postare il link.

halduemilauno
11-06-2007, 13:40
Non so se già avete visto anche questi e sembra andare abbastanza bene sia con N-Vidia che con Ati.
http://www.3dfxzone.it/news/puntatore.php?uid=4807
Scusate ma mi fate capire come mettete gli allegati che più grandi di 24,4 kb non si possono mettere?Visto che vedo voi ragazzi che ne mettete di piccoli KB e poi appena aperti diventano ad alta risoluzione :confused: .Grazie mille! :D

non hai fatto caso che è roba del 15 aprile?
;)

Chief
11-06-2007, 13:47
non hai fatto caso che è roba del 15 aprile?
;)

Non avete capito che sono solo supposizioni niente di vero?:D

halduemilauno
11-06-2007, 13:48
Non avete capito che sono solo supposizioni niente di vero?:D

è quello che stavo dicendo.
;)

halduemilauno
11-06-2007, 13:50
anche queste sono supposizioni????

http://www.fudzilla.com/index.php?option=com_content&task=view&id=1420&Itemid=1

in tutti i casi si riferiscono alle nuove schede di fascia media.
;)

Athlon 64 3000+
11-06-2007, 14:01
personalmente quei test per me sono fake.
Secondo me in dx9 in Crysis la 8800GTX e la HD 2900XT saranno allineate come prestazioni.

TecnoWorld8
11-06-2007, 14:06
in tutti i casi si riferiscono alle nuove schede di fascia media.
;)

ma...schede che sostituiscono già quelle appena uscite di fascia media?

Chief
11-06-2007, 14:09
E faranno entrambe pena, penso, motivo più che sufficiente a rimandare ad oltranza l'uscita del gioco, cosa che sta avvenendo :>

Beato te che hai la sfera di cristallo:rolleyes:

halduemilauno
11-06-2007, 14:10
ma...schede che sostituiscono già quelle appena uscite di fascia media?

cosi la news pare che dica. cita settembre e mainstream.
;)

halduemilauno
11-06-2007, 14:12
E faranno entrambe pena, penso, motivo più che sufficiente a rimandare ad oltranza l'uscita del gioco, cosa che sta avvenendo :>

guarda che quelli i giochi li devono vendere al parco schede più ampio possibile.
;)

3DMark79
11-06-2007, 14:12
non hai fatto caso che è roba del 15 aprile?
;)

Si lo so che erano del 15.
E' solo per avere un idea anche se un test magari poco attendibile.

Free Gordon
11-06-2007, 14:19
GoW non fa uso di MSAA, perchè l'Unreal Engine 3 non supporta il tiling. Per eliminare l'aliasing usa del blur. E' probabile che con Ut3 abbiano modificato il renderer del engine per supportare il tiling e poter applicare MSAA.

Uhm, vedo che l'intervista che ho postato qualche giorno fà non l'ha letta proprio nessuno.. :sofico:

Anche io pensavo quel che pensavi tu, poi ho letto quest'intervista ( http://www.pcgameshardware.de/?article_id=602522 ) e ho capito perchè GoW ha così poche scalette: MSAA! :D
Lo dice chiaramente Tim Sweeny, hanno usato i controlli a basso livello permessi dalla console, per inserire il multisampling. ^_^
"In Gears of War on Xbox 360, we implemented multisampling using the platform's extended MSAA features."

3DMark79
11-06-2007, 14:22
Devi caricare le immagini su imageshack.us e poi postare il link.
Grazie nickdc
in pratica vado su http://imageshack.us/ dove mi devo registrare?
e carico tutto li giusto?

Grey 7
11-06-2007, 14:23
non serve manco la registrazione..uppi direttamente l'immagine e poi posti il link per forum

Free Gordon
11-06-2007, 14:26
Il flop è proprio questa generazione hw, che sia marchiata Nvidia o Ati.

Non sono daccordo, è Call of Juarez ad essere programmato da schifo (e la patch dx10 è qualcosa di pochissimo ottimizzato).


Siamo nel 2007 e la tecnologia chiama che un gioco sia giocabile >30fps stabili, almeno a 1280x1024 in modalità eye-candy.

La risoluzione è sempre in funzione della pesantezza.
Ho sempre pensato che sia assurdo parlare di schede grafiche, in base al monitor che si possiede... tanto prima o poi tutti sono obbligati a calare di risoluzione (sempre che ognungo compri delle schede per tenersele e non per benchare e sostituirle dopo 6 mesi.. :fagiano: ).

MonsterMash
11-06-2007, 14:27
Grazie nickdc
in pratica vado su http://imageshack.us/ dove mi devo registrare?
e carico tutto li giusto?

Non serve registrarsi. Basta che scegli l'immagine dal tuo hd, e poi copi il link che ti restituisce lui dopo l'upload.

Ciao

bs82
11-06-2007, 14:33
....è proprio il forum ufficiale di crysis Online.

Niente di vecchio, sono solo di 3 giorni fa...
http://www.crysis-online.com/forum/index.php?PHPSESSID=8d187f76b295ddc0b5fdf40f3472ffab&topic=4567.msg74124#msg74124

Il topic è di uno dello staff del sito...e infatti sono solo speculazioni.

This is purely based on how we 'think' the cards will perform. Once we have the official requirements from Crytek and we have tested it on a few different configurations we may decide to review this.

This is all speculations, we made this guide as a basic reference, once the game is out we can replace it with some solid numbers

PS:il moderatore poi tra i post ammette che crysis è molto più performante dei vari CoJ e LP... e questa è un'ottima news e basta cmq guardare le tabelle, per quanto indicative sono ottimi risultati anche se consideriamo un elevato margine di errore!

Y2J Lionheart
11-06-2007, 14:39
....è proprio il forum ufficiale di crysis Online.

Niente di vecchio, sono solo di 3 giorni fa...
http://www.crysis-online.com/forum/index.php?PHPSESSID=8d187f76b295ddc0b5fdf40f3472ffab&topic=4567.msg74124#msg74124

Il topic è di uno dello staff del sito...e infatti sono solo speculazioni.

This is purely based on how we 'think' the cards will perform. Once we have the official requirements from Crytek and we have tested it on a few different configurations we may decide to review this.

This is all speculations, we made this guide as a basic reference, once the game is out we can replace it with some solid numbers

PS:il moderatore poi tra i post ammette che crysis è molto più performante dei vari CoJ e LP... e questa è un'ottima news e basta cmq guardare le tabelle, per quanto indicative sono ottimi risultati anche se consideriamo un elevato margine di errore!

2*00 XTX? :confused:

e poi come modelli con sigla xtx non c'è ne sono molti...solo la 2900, quindi che serve mettere il *?

Per il resto i risultati se sono veri sono abbastanza confortanti

Free Gordon
11-06-2007, 14:43
Ora ok che bisogna aspettare (:rolleyes: ) i veri giochi FULL dx10 ma le prime somme si possono tirare già da ora. Che la hd2900xt faccia 30 fps a 1024*768 e la gtx ne faccia 29 non vuol dire che Ati>Nvidia ma semplicemente che entrambe fanno cagare e scusate il termine :asd: Nel bench di coj a dettagli alti e manco massimi e alla risoluzione di 1280*1024 (risoluzione obsoleta per questo genere di scheda) le gtx fanno dai 26 ai 28 fps di media (a parte 2 utenti che fanno oltre 40fps di media ma ancora non si è risolto l'arcano), non so se ci rendiamo conto..e non è manco un bench beta.


Come dicevo sopra, la risoluzione a cui può girare un gioco è sempre stata ricavata in funzione della pesantezza del gioco.
Non esistono nè esisteranno mai, scheda da alte res, schede da basse res, da res intermedie ecc.. :asd:

Se in CoJ dx10, la 2900XT và meglio o uguale della 8800GTX, significa che la 8800GTX in questo "gioco patchato" ha un pessimo rapporto qualità prezzo, tutto quì.. :D Non vuol dire che le schede facciano schifo o qualsiasi altra atrocità.

Cmq, (faccio delle ipotesi, i dati non li so) se il frame rate @1280x960 si mantiene con filtri e impostazioni massime, sui 30fps di media, significa che è giocabile e che per cui le schede fanno il degnamente loro lavoro.

E' probabile che un CoJ2, programmato da zero in dx10, avrà prestazioni migliori, oltre che un impatta grafico migliore. ;)

3DMark79
11-06-2007, 14:47
Grazie tante ragazzi penso di esserci in parte riuscito.:D

http://img127.imageshack.us/img127/7470/cavicb3.jpg

Volevo fare una modifica del mio cavo di alimentazione PCI-E della mia X800GTO2 (ha un attacco a 6 pin ma con 3 fili "2neri-1positivo") al quale mancano e dovrei aggiungere gli altri 3 fili per completare il cavo.
Mi assicurate che sono giuste i vari negativi e positivi del "PCI express video" dove il WHITE dovrebbe corrispondere al GIALLO?
Perchè se dovrei passare alla hd2900 devo per forza farlo.

Grey 7
11-06-2007, 14:55
Come dicevo sopra, la risoluzione a cui può girare un gioco è sempre stata ricavata in funzione della pesantezza del gioco.
Non esistono nè esisteranno mai, scheda da alte res, schede da basse res, da res intermedie ecc.. :asd:

Se in CoJ dx10, la 2900XT và meglio o uguale della 8800GTX, significa che la 8800GTX in questo "gioco patchato" ha un pessimo rapporto qualità prezzo, tutto quì.. :D Non vuol dire che le schede facciano schifo o qualsiasi altra atrocità.

Cmq, (faccio delle ipotesi, i dati non li so) se il frame rate @1280x960 si mantiene con filtri e impostazioni massime, sui 30fps di media, significa che è giocabile e che per cui le schede fanno il degnamente loro lavoro.

E' probabile che un CoJ2, programmato da zero in dx10, avrà prestazioni migliori, oltre che un impatta grafico migliore. ;)

sarà , ma il mio pessimismo rimane e non nascondo che mi sento tranquillo di non aver preso questa generazione di dx10. Aspetto la prossima. Nel frattempo il più (Vista) l'ho fatto :D

Free Gordon
11-06-2007, 15:03
se anche fosse così, considerando la quantità di giochi dx che sono sul mercato (quasi 0) direi che chi ha preso una GTX a novembre è rimasto al top almeno per 8 mesi. e probabilmente di più...cose quasi senza precedenti.
pensa che chi prende una XT ora, non solo non è al top da subito, ma presto sarà di gran lunga superata da quelle in uscita a fine anno...

Le schede si giudicano in base al prezzo di vendita. ;)
La longevità di G80 si prospetta simile alla longevità di G70/71.
E come del resto di tutte le altre schede high end uscite negli ultimi anni (R300 a parte): dopo un anno, appaiono i primi giochi che le fanno andare sotto i 30fps, alle res classiche da 1Mpxl circa.

TecnoWorld8
11-06-2007, 15:06
Le schede si giudicano in base al prezzo di vendita. ;)
La longevità di G80 si prospetta simile alla longevità di G70/71.
E come del resto di tutte le altre schede high end uscite negli ultimi anni (R300 a parte): dopo un anno, appaiono i primi giochi che le fanno andare sotto i 30fps, alle res classiche da 1Mpxl circa.

OK, ma allora la XT subirà tale sorte molto prima di un anno dall'uscita, dato che ha prestazioni inferiori alla GTX (o al pari, su alcuni titoli). E' questo che intendevo dire...il ritardo di XT è stato davvero deleterio per la longevità di questa scheda, come fu per X1800XT - scheda peraltro ottima.

Free Gordon
11-06-2007, 15:07
G80 è una scheda che ha mantenuto la testa della classifica per molto tempo, è vero (più per demerito di ATi che per meriti propri, probabilmente),

Non sono daccordo, G80 è stata per questi mesi, al top in fatto di prestazioni, proprio per una chiara scelta progettuale di nVidia, più che per demeriti di ATI. ;)
E' una scheda progettata per far rendere al massimo i giochi dx9 che sono usciti negli ultimi due anni e questo si evince dalla sua architettura.

Free Gordon
11-06-2007, 15:10
OK, ma allora la XT subirà tale sorte molto prima di un anno dall'uscita, dato che ha prestazioni inferiori alla GTX (o al pari, su alcuni titoli). E' questo che intendevo dire...il ritardo di XT è stato davvero deleterio per la longevità di questa scheda, come fu per X1800XT - scheda peraltro ottima.

stai confrontando due schede con prezzi differenti. ;)

Cmq, per dire quale delle due sarà più longeva, dovremo attendere il 2008. :D

johnson
11-06-2007, 15:17
Come dicevo sopra, la risoluzione a cui può girare un gioco è sempre stata ricavata in funzione della pesantezza del gioco.
Non esistono nè esisteranno mai, scheda da alte res, schede da basse res, da res intermedie ecc.. :asd:

Se in CoJ dx10, la 2900XT và meglio o uguale della 8800GTX, significa che la 8800GTX in questo "gioco patchato" ha un pessimo rapporto qualità prezzo, tutto quì.. :D Non vuol dire che le schede facciano schifo o qualsiasi altra atrocità.

Cmq, (faccio delle ipotesi, i dati non li so) se il frame rate @1280x960 si mantiene con filtri e impostazioni massime, sui 30fps di media, significa che è giocabile e che per cui le schede fanno il degnamente loro lavoro.

E' probabile che un CoJ2, programmato da zero in dx10, avrà prestazioni migliori, oltre che un impatta grafico migliore. ;)

scusami gordon :D ma se schede da 500 fanno 30fps di media mi viene da dire che è una vergogna! I 350 della 2900xt sarebbero sicuramente più ben spesi

TecnoWorld8
11-06-2007, 15:17
stai confrontando due schede con prezzi differenti. ;)

Cmq, per dire quale delle due sarà più longeva, dovremo attendere il 2008. :D

paragono i due top delle rispettive case...è vero però che il prezzo è diverso. è una situazione strana, insomma.

il problema è che ci vorrebbe un "nuovo" top sul mercato, più moderno e veloce, che costasse come ora la GTX. Ma non esce perchè secondo me è un momento davvero brutto per il PC gaming, mentre gli ultimi due anni sono stati un periodo d'oro.

Pat77
11-06-2007, 15:23
O perchè secondo me le attuali soluzioni sono del tutto adeguate, io credo di non sbagliare dicendo che tutto sarà più chiaro quando l'attenzione sarà rivolta altrove, come è sempre successo, dipende quanto si tiene una scheda, io ho visto soluzioni problematiche inizialmente sbocciare (8500) e altre perdere punti man mano (x800).

TecnoWorld8
11-06-2007, 15:28
io fin dall'inizio dico che il forte di 2900xt è il prezzo. a circa 350€ (a volte meno) una scheda che può quasi rivaleggiare con il top sul mercato, che però è un top "vecchio" di 7 mesi.

ripeto, è il mercato ad essere distorto in questo momento, in quanto ogni anticipazione sul futuro pare nebulosa. Per esempio è strano che nVidia non abbia ancora iniziato a fare pressing parlando del prossimo prodotto...ma forse non lo fa proprio perchè non c'è reale competizione con ATi, se non di prezzo a livello della GTS.

il mio timore è che la mancanza di competizione sulle prestazioni ci riporti a periodi in cui un gioco nuovo non gira al massimo dettaglio su NESSUNA scheda sul mercato e che si debba attendere mesi, per vedere un nuovo prodotto affacciarsi, ad un prezzo ovviamente elevatissimo. se in tutto questo ci mettiamo dentro anche il cambiamento di OS e delle librerie DX, abbiamo un periodo molto difficile.

Kal-El
11-06-2007, 15:46
Pensate che la versione da 1GB riesca a battere o perlomeno gareggiare di pari-passo con le 8800GTX e Ultra?

Grey 7
11-06-2007, 15:53
Pensate che la versione da 1GB riesca a battere o perlomeno gareggiare di pari-passo con le 8800GTX e Ultra?

secondo me no

Defragg
11-06-2007, 16:05
Pensate che la versione da 1GB riesca a battere o perlomeno gareggiare di pari-passo con le 8800GTX e Ultra?

se il core della GPU è occato di almeno 100mhz in più, direi che se la potrebbe giocare con la GTX e in alcuni casi con la Ultra :stordita:

ale0bello0pr
11-06-2007, 16:17
Non so xkè ma direi di aspettare oltre il 14 giugno.... :asd:
cmq andre ieri dovevamo provare il CF e nn sei venuto...:muro: vabbho:rolleyes:

Kal-El
11-06-2007, 16:36
se il core della GPU è occato di almeno 100mhz in più, direi che se la potrebbe giocare con la GTX e in alcuni casi con la Ultra :stordita:

Comunque sia secondo me ste 2900XT faranno un bello scherzetto alle 8800, prendetemi pure per pazzo ma si dimostreranno molto più potenti di quelle che sembrano, vedrete!:)

MaRtH
11-06-2007, 16:40
Pensate che la versione da 1GB riesca a battere o perlomeno gareggiare di pari-passo con le 8800GTX e Ultra?


Premessa: una XT 512MB a default regge degnamente il confronto con la GTS 640MB e delle volte riesce ad insidiare la GTX, inoltre ha come suo punto di forza il prezzo competitivo...

Ora, la versione da 1GB dovrebbe promette prestazioni circa al pari di una GTX, ma questo non grazie al quantitativo di ram a bordo, ma perchè diverse fonti (attendibili) danno per certo un aumento discreto delle frequenze di funzionamento...

+Lonewolf+
11-06-2007, 16:43
scusate ma quando potrò testare coj dx10(non il bench) sulla 2900? quando esce?

Kal-El
11-06-2007, 16:51
Premessa: una XT 512MB a default regge degnamente il confronto con la GTS 640MB e delle volte riesce ad insidiare la GTX, inoltre ha come suo punto di forza il prezzo competitivo...

Ora, la versione da 1GB dovrebbe promette prestazioni circa al pari di una GTX, ma questo non grazie al quantitativo di ram a bordo, ma perchè diverse fonti (attendibili) danno per certo un aumento discreto delle frequenze di funzionamento...

Immagino però il prezzo della 1gb!:eek:

MaRtH
11-06-2007, 16:53
Immagino però il prezzo della 1gb!:eek:


Provo a sparare: 450€ all'uscita, 400€ un paio di settimane dopo...

Andando a logica però...

Dato che una GTX la si trova già a meno di 500€...

Pat77
11-06-2007, 16:57
hd 2900, almeno su trovaprezzi, resta sempre li, 360-430, non penso che per quella a 1 gb sia diverso, secondo me sarà 450.

TecnoWorld8
11-06-2007, 17:36
se la versione con 1GB fosse stata a 65nm, l'avrei presa al volo, considerando il minor consumo ed i margini di overclock. così, invece, penso sia solo un modo per dire che ha più memoria dei concorrenti e per farla pagare di più, ma - vedrete - le prestazioni saranno praticamente uguali alla versione con 512MB, con eventualmente la differenza dovuta al maggior clock della GPU, comunque ottenibile anche sulla 512, tramite un leggero overclock.

halduemilauno
11-06-2007, 17:41
Pensate che la versione da 1GB riesca a battere o perlomeno gareggiare di pari-passo con le 8800GTX e Ultra?

non è o almeno credo non sarà tanto il giga ma l'aumento sul core. si parlava di 825 quindi un bel boost rispetto ai 742.
;)

Defragg
11-06-2007, 17:47
non è o almeno credo non sarà tanto il giga ma l'aumento sul core. si parlava di 825 quindi un bel boost rispetto ai 742.
;)

concordo :)

Nos89
11-06-2007, 17:48
non è o almeno credo non sarà tanto il giga ma l'aumento sul core. si parlava di 825 quindi un bel boost rispetto ai 742.
;)

gia:)

Evangelion01
11-06-2007, 17:49
non è o almeno credo non sarà tanto il giga ma l'aumento sul core. si parlava di 825 quindi un bel boost rispetto ai 742.
;)

Il problema, prezzo a parte, sarà il calore, il rumore e il consumo... comunque dovrebbe avere gli stessi livelli prestazionali della gtx.

halduemilauno
11-06-2007, 17:52
Il problema, prezzo a parte, sarà il calore, il rumore e il consumo... comunque dovrebbe avere gli stessi livelli prestazionali della gtx.

questa si. mi domando allora perchè non aspettare e presentarle insieme.
aspettiamo riscontri e rece esaustive.
;)

Iantikas
11-06-2007, 18:03
mah...a me dalle varie notizie è parso di capire ke questa skeda verrà prodotta solo x gli OEM e solo x alcuni presenti nel canale nord americano...(quindi niente retail e niente europa)...da come ne state parlando sembra ke il 14 esca nei vari shop italiani quando nn'è così...è una skeda ke noi potremo vedere solo nelle varie rece...ciao

appleroof
11-06-2007, 18:05
mah...a me dalle varie notizie è parso di capire ke questa skeda verrà prodotta solo x gli OEM e solo x alcuni presenti nel canale nord americano...(quindi niente retail e niente europa)...da come ne state parlando sembra ke il 14 esca nei vari shop italiani quando nn'è così...è una skeda ke noi potremo vedere solo nelle varie rece...ciao

anche questo, finora, è vero

×§ñåkê×
11-06-2007, 18:16
se il dissi è identico, la gpu pure, allora anche quella da 512 arriva a 825 mhz di gpu tranquillamente?

halduemilauno
11-06-2007, 18:17
mah...a me dalle varie notizie è parso di capire ke questa skeda verrà prodotta solo x gli OEM e solo x alcuni presenti nel canale nord americano...(quindi niente retail e niente europa)...da come ne state parlando sembra ke il 14 esca nei vari shop italiani quando nn'è così...è una skeda ke noi potremo vedere solo nelle varie rece...ciao

allora a maggior ragione aspettiamo.
;)

+Lonewolf+
11-06-2007, 18:20
se il dissi è identico, la gpu pure, allora anche quella da 512 arriva a 825 mhz di gpu tranquillamente?

la mia arriva a 840 quindi si, è solo un oc

belin
11-06-2007, 18:25
Diamond Radeon HD 2900XT 825MHZ 1GB 2.1GHZ Dual DVI PCI-E HDTV Out VIVO Video Card OEM *Bundle Only*

Prezzo 599.99 $ (il negozio è canadese), disponibilità il 18 giugno.

...quindi confermate gpu a 825 Mhz e memorie a 2100 Mhz.


:)

Grey 7
11-06-2007, 18:27
ma non ci sarà una versione normale? solo oem?

TecnoWorld8
11-06-2007, 18:28
599$ canadesi? penso siano sui 430€. In Italia sarà almeno sui 450€. troppo, secondo me, per una scheda che alla fine tra 6 mesi sarà quasi sicuramente superata di molto...

Grey 7
11-06-2007, 18:29
In Italia (cosi come per tutta l'Europa) mi sa che manco si troverà, quindi il problema non si pone

MaRtH
11-06-2007, 18:40
Diamond Radeon HD 2900XT 825MHZ 1GB 2.1GHZ Dual DVI PCI-E HDTV Out VIVO Video Card OEM *Bundle Only*

Prezzo 599.99 $ (il negozio è canadese), disponibilità il 18 giugno.

...quindi confermate gpu a 825 Mhz e memorie a 2100 Mhz.


:)


Confermate si, notevoli le frequenze...

O meglio, la freq del core è buona, sono 83Mhz in più, le memorie invece salgono di ben 450Mhz...

Dovrebbe essere davvero sensibilmente più veloce di una XT 512MB...

halduemilauno
11-06-2007, 18:43
non so se avete visto questo.
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414
;)

appleroof
11-06-2007, 18:45
non so se avete visto questo.
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414
;)

650 dddollars a chi la prende retail....

halduemilauno
11-06-2007, 18:47
quella news si era gia vista qui.
http://www.hwupgrade.it/news/skvideo/radeon-hd-2900-xt-1-gbyte-in-vendita_21482.html
;)

Defragg
11-06-2007, 18:48
599$ canadesi? penso siano sui 430€. In Italia sarà almeno sui 450€. troppo, secondo me, per una scheda che alla fine tra 6 mesi sarà quasi sicuramente superata di molto...

alla fine quei 70/80€ in più sono quelli della RAM, a meno che non si giochi a 1920x1200 o a 2560x1600 a una soluzione del genere è sempre preferibile uno SLi di GTX o un CrossFire di XT 512Mb

resta il fatto che questa soluzione rimane per il mercato OEM, ergo, a noi può anche non riguardarci :)

imho se ci sarà una scheda "per tutti" da 1Gb, molto probabilmente sarà R680 :fagiano:

ma siccome non sono Nostradamus, queste sono solo supposizioni :asd:

halduemilauno
11-06-2007, 18:49
650 dddollars a chi la prende retail....

come specificato nella news postata prima si tratta di $ canadesi in questo caso sarebbero 452€. certo poi con le tasse e cavoli vari diventano...
;)

belin
11-06-2007, 18:50
Diamond Radeon HD 2900XT 825MHZ 1GB 2.1GHZ Dual DVI PCI-E HDTV Out VIVO Video Card OEM *Bundle Only*

...quindi confermate gpu a 825 Mhz e memorie a 2100 Mhz.

Confermate si, notevoli le frequenze...

O meglio, la freq del core è buona, sono 83Mhz in più, le memorie invece salgono di ben 450Mhz...

Dovrebbe essere davvero sensibilmente più veloce di una XT 512MB...

Confermata anche l'immagine:

http://www.extreme-pc.ca/uploads/XPC-HD2900XT-1GB-DDR4.1.jpg

Secondo me questa è quello che doveva essere la XTX. Se la memoria non mi inganna le vecchie voci parlavano di 850/2100 per la XTX 1Gb. Il prezzo (599$) è competitivo, ci son sempre 1 Gb di gddr4 su quel pcb. La butto lì...secondo me questo modello è stato realizato ora grazie al raffinamento della produzione di R600. Non so a quale serie siano arrivati (A14, A15?), ma probabilmente adesso i chip reagiscono bene alle frequenze alte.

;)

ale0bello0pr
11-06-2007, 18:51
non so se avete visto questo.
http://www.extreme-pc.ca/showproduct.asp?menu1id=12&menu2id=99&menu3id=39&productid=371414
;)


ottima rece....si vede che denny nn è un user qualsiasi...ma qualcuno in grado di avere ben prima dell'uscita della HD2900 XT 512 MB...gia' quella da 1 GB....infatti........ beh il mio prox acquisto se la prox vga esce nn prima di 6 mesi...:)

appleroof
11-06-2007, 18:51
come specificato nella news postata prima si tratta di $ canadesi in questo caso sarebbero 452€. certo poi con le tasse e cavoli vari diventano...
;)

....già, almeno 600 euro circa

belin
11-06-2007, 18:59
....già, almeno 600 euro circa

...sicuramente di meno. Considera che lo stesso shop vende le 8800GTX 768Mb a $660 (quella che costa meno) e le Sapphire HD 2900XT 512Mb a $500.

...ciao!

appleroof
11-06-2007, 19:00
...sicuramente di meno. Considera che lo stesso shop vende le 8800GTX 768Mb a $660 (quella che costa meno) e le Sapphire HD 2900XT 512Mb a $500.

...ciao!

si si..intendevo quel prezzo in quel determinato shop, che poi che io sappia è l'unico finora che la vende anche retail...

bs82
11-06-2007, 19:04
Ok che il 3dmark non serve niente...però serve per vedere gli incrementi ad esempio in caso di overclock...

guardate dove si son spinti questi.....
http://www.nordichardware.com/news,6497.html

dicono che una cosa ottima per la 2900xt sia alzare la velocità del pciexpress.... interessante!

+Lonewolf+
11-06-2007, 19:08
dicono che una cosa ottima per la 2900xt sia alzare la velocità del pciexpress.... interessante!

quanto pericoloso...il mio è a 101mhz, di quanto andrebbe alzato?

+Lonewolf+
11-06-2007, 19:08
Questa cosa mi fa pensare ad un'altra... non è solo interessante, è molto interessante, se è vero...

a cosa vi fa pensare, dai dite che vi testo il testabile

-Feanor-
11-06-2007, 19:11
ad ogni modo dinox conferma che sara solo distribuita agli oem e non sul mercato retail http://www.dinoxpc.com/News/news.asp?ID_News=12674&What=News ...

appleroof
11-06-2007, 19:15
quanto pericoloso...il mio è a 101mhz, di quanto andrebbe alzato?

lascia stare: al 90% ti freghi i dischi...non vale assolutamente rischiare ;)

-Feanor-
11-06-2007, 19:17
ragazzi avevo sentito dire che certi parters di ati avrebbero deciso di lanciare una versione da 512, ma con gddr4.......sapete niente voi....?? secondo me qst soluzioone sarebbe decisamente piu interessante di quella da 1 gb...:sofico:

+Lonewolf+
11-06-2007, 19:22
Io l'ho portato a 120MHz stabili, ma non mi son fidato a tenercelo :>



Quello a cui ho pensato io non puoi testarlo :>

cosa avevi in mente?

-Feanor-
11-06-2007, 19:23
Non saprei, a veder la differenza di prezzo fra la 512 e la 1GB non saprei a che prezzo collocare una ipotetica 512 gddr4 per convincermi che è meglio della 1GB :>

narturalmente la differenza di prezzo....:D :sofico: ....obbiettivamente..a chi serve un giga di memoria video...?? io ho un monitor 1280x1024...:stordita:

Kal-El
11-06-2007, 19:29
Provo a sparare: 450€ all'uscita, 400€ un paio di settimane dopo...

Andando a logica però...

Dato che una GTX la si trova già a meno di 500€...

Se è a 450 o anche 500€ non sarebbe affatto male cmq! E se è alla pari o anche di poco superiore ad una GTX/Ultra, io la prendo. Ho sempre avuto ATI e vorrei restare con loro.:)

Grey 7
11-06-2007, 19:33
Ok che il 3dmark non serve niente...però serve per vedere gli incrementi ad esempio in caso di overclock...

guardate dove si son spinti questi.....
http://www.nordichardware.com/news,6497.html

dicono che una cosa ottima per la 2900xt sia alzare la velocità del pciexpress.... interessante!

sti cavoli :oink:

Defragg
11-06-2007, 19:36
Ok che il 3dmark non serve niente...però serve per vedere gli incrementi ad esempio in caso di overclock...

guardate dove si son spinti questi.....
http://www.nordichardware.com/news,6497.html

dicono che una cosa ottima per la 2900xt sia alzare la velocità del pciexpress.... interessante!

Hmm...quindi un'ipotetica versione per pci-e 2.0 (ricordo che il 16x per pci-e 2.0 equivale al 32x(!) del pci-e 1.1) dovrebbe avere dei vantaggi...vedremo :)

A.L.M.
11-06-2007, 19:36
personalmente quei test per me sono fake.
Secondo me in dx9 in Crysis la 8800GTX e la HD 2900XT saranno allineate come prestazioni.

In effetti avendo visto come vari pre-test di R600 che credevo fake poi più o meno si siano rivelati veri, a questo punto si potrebbe credere anche a questi, visto che non è nemmeno la prima tabella con prestazioni del genere, ecc... ;)
Tra l'altro questo confermerebbe le teorie fatte prima del lancio: tra la GTS e la GTX in DX9, come o meglio della GTX in DX10. Se tali prestazioni venissero confermate e ripetute pure con l'UE3 DX10, R600 avrebbe certamente molto più senso.

Non sono daccordo, G80 è stata per questi mesi, al top in fatto di prestazioni, proprio per una chiara scelta progettuale di nVidia, più che per demeriti di ATI. ;)
E' una scheda progettata per far rendere al massimo i giochi dx9 che sono usciti negli ultimi due anni e questo si evince dalla sua architettura.

Beh, ATi, per scelta o per necessità è uscita successivamente alle nVidia, e tra l'altro le qualche RBE in più potevano mettercelo dentro, no? Quindi merito a nVidia, ma nella "supremazia" di G80 in DX9 c'è anche il "demerito" di ATi per non aver voluto o potuto garantire prestazioni superiori al top nVidia in DX9 in molti giochi. ;)

Chief
11-06-2007, 19:51
Hmm...quindi un'ipotetica versione per pci-e 2.0 (ricordo che il 16x per pci-e 2.0 equivale al 32x(!) del pci-e 1.1) dovrebbe avere dei vantaggi...vedremo :)

Confermo impostando un oC pci-e sui 120 da bios ho avuto guadagni esempio lampante COJ dx10 tutto a default

http://img108.imageshack.us/img108/6307/dwm2007061120453125iy1.th.jpg (http://img108.imageshack.us/my.php?image=dwm2007061120453125iy1.jpg)

che la scheda sia compatibile pci-e 2.0?

Kal-El
11-06-2007, 20:03
C'è gia qualche rece della versione da 1gb?

-Feanor-
11-06-2007, 20:14
Sempre obiettivamente, che te ne fai di una scheda high-end per un monitor 1280x ? :>

cerco di non linciarne la longevita prematuramente....;) ...cmq....magari ce l'avessi una scheda high end...:cry:

leoneazzurro
11-06-2007, 20:14
Confermo impostando un oC pci-e sui 120 da bios ho avuto guadagni esempio lampante COJ dx10 tutto a default

http://img108.imageshack.us/img108/6307/dwm2007061120453125iy1.th.jpg (http://img108.imageshack.us/my.php?image=dwm2007061120453125iy1.jpg)

che la scheda sia compatibile pci-e 2.0?

Dovrebbe essere scritto nel tuo manuale utente, no? :D

Defragg
11-06-2007, 20:15
che la scheda sia compatibile pci-e 2.0?
no, è ancora pci-e 1.1 ;)

-Feanor-
11-06-2007, 20:22
date un occhiata qua http://www.tomshw.it/graphic.php?guide=20070327 ....decisamente it....non si sente proprio la necessita di un pci-ex 2.0.....è solo per farci sborsare altri soldi....:incazzed: :asd:

sasyultrasnapoli
11-06-2007, 20:24
Secondo me con la versione da 1 GB e con le DDR4, le HD2900xt avranno un vero e proprio sbalzo di prestazioni, a tal punto da eguagliare, o addirittura superare le prestazioni delle attuali 880gtx.............:eek: :eek:

Su questo ci metto la mano sul fuoco:D

Parola mia.....ci vediamo il 14 giugno e vedrete che avro ragione;)

ciao belli

Chief
11-06-2007, 20:28
no, è ancora pci-e 1.1 ;)

La demo scorre molto più velocemente impostando dal bios quei settaggi...che dite lascio impostato così o può partire la vga :D

Grey 7
11-06-2007, 20:33
Parola mia.....ci vediamo il 14 giugno e vedrete che avro ragione;)

ciao belli

non reiniziamo :rolleyes: Scherzo, ma se hai seguito il thread di r600 capisci :D

ATi7500
11-06-2007, 20:35
Secondo me con la versione da 1 GB e con le DDR4, le HD2900xt avranno un vero e proprio sbalzo di prestazioni, a tal punto da eguagliare, o addirittura superare le prestazioni delle attuali 880gtx.............:eek: :eek:

Su questo ci metto la mano sul fuoco:D

Parola mia.....ci vediamo il 14 giugno e vedrete che avro ragione;)

ciao belli
l'ultimo che ha fatto una sparata del genere sulla 2900XT originaria si è dato alla latitanza dal forum per almeno 2 settimane :asd:

bYeZ!

Defragg
11-06-2007, 20:36
date un occhiata qua http://www.tomshw.it/graphic.php?guide=20070327 ....decisamente it....non si sente proprio la necessita di un pci-ex 2.0.....è solo per farci sborsare altri soldi....:incazzed: :asd:

più che altro la necessità può esserci, ad esempio invece dei 75w erogati dal pci-e 1.1, con il 2.0 si possono erogare fino a 300W, quindi addio cavi
e poi sostanzialmente c'è retrocompatibilità, non è un passaggio quasi obbligato come quello tra agp e pci-e :)
La demo scorre molto più velocemente impostando dal bios quei settaggi...che dite lascio impostato così o può partire la vga :D

io lo lascerei a 100mhz e basta ;)

sasyultrasnapoli
11-06-2007, 20:39
l'ultimo che ha fatto una sparata del genere sulla 2900XT originaria si è dato alla latitanza dal forum per almeno 2 settimane :asd:

bYeZ!

Si ma questo e vero:read: Mi scometto tutto;)

ciao

-Feanor-
11-06-2007, 20:42
più che altro la necessità può esserci, ad esempio invece dei 75w erogati dal pci-e 1.1, con il 2.0 si possono erogare fino a 300W, quindi addio cavi
e poi sostanzialmente c'è retrocompatibilità, non è un passaggio quasi obbligato come quello tra agp e pci-e :)

quello dell alimentazione è un discorso a parte...quello che personalmente a me rode è che il 2.0 non sia stato messo sulle schede appena uscite con chipset p35 :muro: :muro: ....se devo spendere 300€ per una mb con chipset X38...se lo tengano pure il pci-ex 2.0 :rolleyes:

Defragg
11-06-2007, 20:44
quello dell alimentazione è un discorso a parte...quello che personalmente a me rode è che il 2.0 non sia stato messo sulle schede appena uscite con chipset p35 :muro: :muro: ....se devo spendere 300€ per una mb con chipset X38...se lo tengano pure il pci-ex 2.0 :rolleyes:

imho lo metteranno anche nelle future p35 :)

-Feanor-
11-06-2007, 20:45
imho lo metteranno anche nelle future p35 :)

si ma io il compuer lo devo cambiare adesso....:muro: :muro: :muro:

Poty...
11-06-2007, 21:04
a cosa vi fa pensare, dai dite che vi testo il testabile

oh ma che fai sei sparito? non hai fatto bench ne con FEAR ne con altri giochi la facciamo sta garetta si o no? sono curioso

-Feanor-
11-06-2007, 21:37
ragazzi se interessa a qualcuno qui c'è un filmato (preso da telecamera :muro: ) della tech demo dx10 con fraps...cosi si puo tenere d'occhio il frame-rate... http://www.youtube.com/watch?v=Em7hJiVRDVU ...non si capisce la risoluzione pero...:boh:

bs82
11-06-2007, 21:57
quanto pericoloso...il mio è a 101mhz, di quanto andrebbe alzato?

loro l'hanno messo a 160 e rotti con il crossfire...

lascia stare: al 90% ti freghi i dischi...non vale assolutamente rischiare ;)

adesso mi spieghi che centra il pciexpress con i dischi :rolleyes:

TecnoWorld8
11-06-2007, 22:01
loro l'hanno messo a 160 e rotti con il crossfire...

urca 160Mhz è tantissimo, 60% sopra specifica...ti da effettivi miglioramenti a quella frequenza? io non credo che ad oltre 115Mhz ci siano reali incrementi su scheda singola, ma forse il crossfire ne giova, in effetti...

MonsterMash
11-06-2007, 22:04
adesso mi spieghi che centra il pciexpress con i dischi :rolleyes:

Veramente anche io sapevo che la prima cosa a partire alzando il pci-e erano i dischi. Anche se non ho mai fatto ricerche per capirne il motivo.

Magari questa è l'occasione per farle ;)

bs82
11-06-2007, 22:06
urca 160Mhz è tantissimo, 60% sopra specifica...ti da effettivi miglioramenti a quella frequenza? io non credo che ad oltre 115Mhz ci siano reali incrementi su scheda singola, ma forse il crossfire ne giova, in effetti...

hanno solo battuto il record mondiale di 3dmark05 :eek:

.... occhio che però il procio era spinto a 5Ghz.... :eek:

ma se non erro il 3dmark05 è legato alla cpu con un vincolo limitante, quindi il procio in teoria "libera" la potenza della GPU... credo... :stordita:

TecnoWorld8
11-06-2007, 22:07
capito, beh, chiaramente poi sono settaggi che si tengono magari per il tempo di un benchmark o poco più...e di certo chi cerca record non bada alla longevità delle componenti ;)

MonsterMash
11-06-2007, 22:07
... una curiosita'... stasera ho tolto il dissipatore originale e sotto il rame ho trovato una tonnellata di pasta siliconica!! :eek:
Non ne avevo mai vista cosi' tanta neppure nei tempi dei primi Pentium montati a c***o!! In pratica tutta la zona al di dentro della cornice esterna alla GPU (per intenderci quella dove e' serigrafato il logo ATI) era piena di pasta... tutti e quattro gli angoli erano colmi a raso... :mbe:
Ma per montare il WB come avete fatto? Non mi aspettavo assolutamente niente del genere... avete rimesso tutta 'sta pasta oppure solo sul core della GPU com'e' stato finora per le X1xxx?!!??!?
Ciao!
Baio

Nel mio caso la pasta non era troppa. Era spalmata nella giusta quantità, ed uniformemente.
In ogni caso, io ho messo un sottilissimo strato (spalmato con un cotton fioc, pensa un po') di metallo liquido, come ormai faccio anche con la cpu da diverso tempo.
Così facendo, dopo che la temperatura dell'acqua si è stabilizzata a 30 °C (con una T ambiente di 26 gradi), la gpu in idle è a 38 °C, e in full a 45-47 °C.
Il mio WB è un ybris K5.

bs82
11-06-2007, 22:13
Veramente anche io sapevo che la prima cosa a partire alzando il pci-e erano i dischi. Anche se non ho mai fatto ricerche per capirne il motivo.

Magari questa è l'occasione per farle ;)

capito, beh, chiaramente poi sono settaggi che si tengono magari per il tempo di un benchmark o poco più...e di certo chi cerca record non bada alla longevità delle componenti ;)

mah...io ho sempre saputo che i controller sata e pata non hanno niente a che fare con il pciexpress, nel senso che o ci sono i divisori o sono indipendenti...
Mentre era il contrario con il PCI, che tra l'altro nelle ultime MB con il PCI si poteva aumentare la freq dei vari bus anche senza divisori in modo indipendente... dopo che ci siano MB con il pciexpress legato al sata-pata non te lo so dire...

ma se questi sparano tutto a 160 e rotti vuol dire che qualche sicurezza ce l'hanno...dopotutto devono benchare... e se non sei rock solid non benchi un bel niente.... :mbe:

bs82
11-06-2007, 22:16
Avevo capito che solo il K7 era compatibile fra i WB Ybris...
Quindi mi confermi che hai messo la pasta solo al centro e non nei 4 angoli in mezzo a quei 'cosini' minuscoli?
Ciao!
Baio

attento che se usi paste all'argento o cmq conduttive... e impregni i piccoli "cosi"...fotti tutto :D

bradiposid
11-06-2007, 22:17
mi iscrivo...sn appena tornato casa con la mia schedina nuova

è della sapphire!

:)

gherf
11-06-2007, 22:20
scusate la domanda...

sul fatto che il 14 giugno venga commercializzata la versione da 1gb x il mercato OEM è chiaro....

ma x il mercato retail ci sono speranze?

io sarei interessato a prenderla.. ma il pc devo cambiarlo entro fine giugno... nn vorrei che la cosa slittasse a luglio, se non ad agosto...

grazie mille

ciauzz
Andrea

Chief
11-06-2007, 22:26
mi iscrivo...sn appena tornato casa con la mia schedina nuova

è della sapphire!

:)

Benvuto meno male stanno aumentando utenti con la 2900 :fagiano:

Chief
11-06-2007, 22:30
Ragazzi conoscete qualche programma per misurare le temp. di questa scheda?? :)

MonsterMash
11-06-2007, 22:32
Ragazzi conoscete qualche programma per misurare le temp. di questa scheda?? :)

Si, l'amd gpu clock tool. Trovi il link per scaricarlo nella prima paggina della discussione sui bench della 2900xt:

http://www.hwupgrade.it/forum/showthread.php?t=1484107

×§ñåkê×
11-06-2007, 22:52
oh ma che fai sei sparito? non hai fatto bench ne con FEAR ne con altri giochi la facciamo sta garetta si o no? sono curioso

c'è poco da gareggiare... la hd2900xt fa di piu di una 8800gts. IMHO con driver piu nuovi la scheda andrà confrontata con la 8800gtx. per ora stà a metà tra le 8800 gts e le 8800gtx, molto piu vicina alle gtx però.

+Lonewolf+
11-06-2007, 22:54
oh ma che fai sei sparito? non hai fatto bench ne con FEAR ne con altri giochi la facciamo sta garetta si o no? sono curioso

penso che domani reinstallo fear;)

Kal-El
11-06-2007, 22:54
C'è gia qualche rece della versione da 1gb?

Up

Iantikas
11-06-2007, 22:56
ma se questi sparano tutto a 160 e rotti vuol dire che qualche sicurezza ce l'hanno...dopotutto devono benchare... e se non sei rock solid non benchi un bel niente.... :mbe:

e l'hai pure grassettata :p ...l'overclock RS e l'overclocck da bench son due cose completamente diverse...un overclock è RS quando con qualunque applicazione funziona senza problemi a tempo indeterminato...

...gli overclock da bench invece sono fatti in modo tale da garantire stabilità esclusivamente durante la durata del bench...si tratta di tirare il sistema al max possibile in base al bench ke si deve far girare (x es. la freq max benchabile x un SuperPI da 1M è d molto superiore a quella x un 3dMark06 così come entrambe son di molto superiori a quella RS con cui puoi far girare tutto senza problemi all'infinito)...

...ciao

bs82
11-06-2007, 23:10
E' questo che non capisco... la pasta sembra in tutto e per tutto una pasta all'argento... eppure quei 'cosini' erano completamente avvolti...
Mah... non capisco proprio... :mbe:
Ciao!
Baio

forse la pasta è solo colorata all'argento (basta un tester comunque) oppure i resistori attorno alla GPU sono ricoperti di uno strato isolante...

Chief
11-06-2007, 23:20
Si, l'amd gpu clock tool. Trovi il link per scaricarlo nella prima paggina della discussione sui bench della 2900xt:

http://www.hwupgrade.it/forum/showthread.php?t=1484107

Sinceramente non lo so usare vado nel pannello termal sensor ma non posso abilitare nulla :confused:

bs82
11-06-2007, 23:21
e l'hai pure grassettata :p ...l'overclock RS e l'overclocck da bench son due cose completamente diverse...un overclock è RS quando con qualunque applicazione funziona senza problemi a tempo indeterminato...

...gli overclock da bench invece sono fatti in modo tale da garantire stabilità esclusivamente durante la durata del bench...si tratta di tirare il sistema al max possibile in base al bench ke si deve far girare (x es. la freq max benchabile x un SuperPI da 1M è d molto superiore a quella x un 3dMark06 così come entrambe son di molto superiori a quella RS con cui puoi far girare tutto senza problemi all'infinito)...

...ciao

Per carità non sono espertissimo di overlock nonostante il mio xp2500@3200 senza overvolt e ad aria, ma a parte la durate dell'azoto liquido, se passi indenne un bench specialmente del 3dmark2005 che è strasensibile, sei sicuro che nell'uso normale sei rock solid...ovviamente finchè il procio resta sotto azoto...

Chief
11-06-2007, 23:25
Sinceramente non lo so usare vado nel pannello termal sensor ma non posso abilitare nulla :confused:

Ok ci sono riuscito qual'è quella da tenere d'occhio sample??

MonsterMash
11-06-2007, 23:47
Per carità non sono espertissimo di overlock nonostante il mio xp2500@3200 senza overvolt e ad aria, ma a parte la durate dell'azoto liquido, se passi indenne un bench specialmente del 3dmark2005 che è strasensibile, sei sicuro che nell'uso normale sei rock solid...ovviamente finchè il procio resta sotto azoto...


E su questo dissento fortissimamente. Per essere RS devi passare almeno 24 ore di filato sotto orthos, o doppio prime95.
Un singolo 3dmark 2005 non significa proprio niente, come non significa niente un spi32mb (che già è più stressante di un 3dm05 per la cpu).
Un esempio: la mia cpu finisce il 3dmark05 a 3200mhz, ma è tutt'altro che RS. Bastano 10 minuti di orthos perchè cominci a dare errori.
Altro esempio (per le memorie stavolta): le mie memorie reggono poco l'OC. Se le setto a 265 mhz gli ci vuole circa un'ora con memtest per dare errori a raffica, ma difficilmente mandano in crash il sistema durante l'uso quotidiano. Ciò però non significa che siano RS.

Ciao :)

MonsterMash
11-06-2007, 23:49
Ok ci sono riuscito qual'è quella da tenere d'occhio sample??

La prima è la gpu, la seconda è il regolatore di tensione.

×§ñåkê×
12-06-2007, 00:03
E su questo dissento fortissimamente. Per essere RS devi passare almeno 24 ore di filato sotto orthos, o doppio prime95.

24 ore? esagerato... bastano 8 ore, e si può gia dire di essere rock solid al 99% per quel 1% purtroppo puoi farci mesi di orthos ma non arriverà mai al 100% ;)

MonsterMash
12-06-2007, 00:07
24 ore? esagerato... bastano 8 ore, e si può gia dire di essere rock solid al 99% per quel 1% purtroppo puoi farci mesi di orthos ma non arriverà mai al 100% ;)

Per i professionisti dell'OC ci vogliono 24h :P

Cmq la mia scheda ha delle belle memorie. Ho benchato il 3dmark fino a 2200mhz. Appena esce una versione di atitool che supporti le 2900xt metto stabili 1000mhz per la gpu (con overvolt, ovviamente:D) e 2000 per le memorie :D.

+Lonewolf+
12-06-2007, 00:07
24 ore? esagerato... bastano 8 ore, e si può gia dire di essere rock solid al 99% per quel 1% purtroppo puoi farci mesi di orthos ma non arriverà mai al 100% ;)

sai...ho notato che occando il pci-E a 110 mhz ho avuto notevoli incrementi nell'oc e nelle prestazioni dei giochi...magari questo è un segno di evoluzione verso il pci-E 2.0? sicuramente è un segno che nostra vga ha tanta voglia di potenza...

×§ñåkê×
12-06-2007, 00:29
Per i professionisti dell'OC ci vogliono 24h :P

Cmq la mia scheda ha delle belle memorie. Ho benchato il 3dmark fino a 2200mhz. Appena esce una versione di atitool che supporti le 2900xt metto stabili 1000mhz per la gpu (con overvolt, ovviamente:D) e 2000 per le memorie :D.

allora anche la mia avrà le mem :ciapet: xke alla fine la abbiamo presa nello stesso periodo (io circa 4 giorni dopo che è uscita :doh: ) e non penso abbiano avuto il tempo di usarne delle altre :D

sai...ho notato che occando il pci-E a 110 mhz ho avuto notevoli incrementi nell'oc e nelle prestazioni dei giochi...magari questo è un segno di evoluzione verso il pci-E 2.0? sicuramente è un segno che nostra vga ha tanta voglia di potenza...

??? ma in teoria non si danneggerebbe seriamente la scheda occando il pci-e? ricordo che quando avevo agp 8x i fix dovevano stare tassativamente attivati xke senno si rischiava di danneggiare tutto... mi sarò perso qualcosa nel passaggio pci-e? cmq è vero che nelle 8800 il pci-e stà a 125 MHz?

Kal-El
12-06-2007, 00:34
Allora? Qualcuno sa dirmi se la vers. da 1gb è superiore o no alla 8800 ultra?:O

MonsterMash
12-06-2007, 00:42
Allora? Qualcuno sa dirmi se la vers. da 1gb è superiore o no alla 8800 ultra?:O

Ma se ancora non è uscita come facciamo a saperlo?!

Cmq io dubito che sarà molto superiore alla 2900xt 512. Il che' non significa necessariamente che sia un cattivo acquisto, visto che io ho grande fiducia in questa schedozza ;)

+Lonewolf+
12-06-2007, 00:56
allora anche la mia avrà le mem :ciapet: xke alla fine la abbiamo presa nello stesso periodo (io circa 4 giorni dopo che è uscita :doh: ) e non penso abbiano avuto il tempo di usarne delle altre :D



??? ma in teoria non si danneggerebbe seriamente la scheda occando il pci-e? ricordo che quando avevo agp 8x i fix dovevano stare tassativamente attivati xke senno si rischiava di danneggiare tutto... mi sarò perso qualcosa nel passaggio pci-e? cmq è vero che nelle 8800 il pci-e stà a 125 MHz?

io tengo stabile il core a 825...dopo artefatteggia, x le mem vado sicuro sui 970...che risultati sono?

×§ñåkê×
12-06-2007, 01:19
io tengo stabile il core a 825...dopo artefatteggia, x le mem vado sicuro sui 970...che risultati sono?

825 mhz sarebbero gli stessi della hd2900xt 1gb :cool:

Free Gordon
12-06-2007, 01:46
E' questo che non capisco... la pasta sembra in tutto e per tutto una pasta all'argento... eppure quei 'cosini' erano completamente avvolti..

Non ti preoccupare, non succede nulla se finisce della pasta lì. ;)

E' una leggenda quella della conduttività delle paste all'argento. Queste diventano leggermente conduttrici solo se sottoposte ad una fortissima pressione.