PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 [24] 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

berry83
29-06-2007, 08:39
......c'è scusa, hai postato senza capire? hai letto nvidia e hai preso le difese?

se tu non l'avessi capito la morale è che nvidia fa il bello ed il cattivo tempo....tutto qui...

guarda che io non prendo schede solo xè c'è nvidia o ati, prendo solo le + veloci in commercio. non mi rientra niente essere un fanboy:D

Pat77
29-06-2007, 08:54
Io su Dirt a casa su hd2900 non ho problemi, giocando col dettaglio su x1900 gt va fluido, solo le gare con molte macchine sono un problema, con frame rate sui 20-22.

+Lonewolf+
29-06-2007, 09:32
Io su Dirt a casa su hd2900 non ho problemi, giocando col dettaglio su x1900 gt va fluido, solo le gare con molte macchine sono un problema, con frame rate sui 20-22.

io cn dirt patchato all'ultima versione, con i 7.7 beta su xp sono sui 30-35, provali e metti lapatch;) vedi come sale, ho provato la gara con le jeep e sono arrivato fino a 7 macchine nello schermo, mai sceso sotto i 30, solo durante un'incidente, che ha fatto 28, per il resto 30-35 anche qualcosina in più nelle zone sgombere

davide155
29-06-2007, 09:36
io cn dirt patchato all'ultima versione, con i 7.7 beta su xp sono sui 30-35, provali e metti lapatch;) vedi come sale, ho provato la gara con le jeep e sono arrivato fino a 7 macchine nello schermo, mai sceso sotto i 30, solo durante un'incidente, che ha fatto 28, per il resto 30-35 anche qualcosina in più nelle zone sgombere

Si perchè la patch impone il settaggio delle ombre come massimo su ALTO, e non più su ultra come avveniva senza patch.
Infatti anche se uno mette ultra e fa una gara vedrà che ritornando nel menù video il settaggio sarà tornato su alto in automatico.
Quindi è logico che faccia di più ;)

Murphy
29-06-2007, 09:43
qualcuno mi può fare uno shoot di dirt specialmente dove si vedono le ombre(tipo la gara della subaru)!

grazie in anticipo!

cmq mi sono messo a spulciare il demo di dirt per l'xbox360 e le ombre non mi sono sembrate al max, il resto sembra al massimo.

davide155
29-06-2007, 09:52
qualcuno mi può fare uno shoot di dirt specialmente dove si vedono le ombre(tipo la gara della subaru)!

grazie in anticipo!

cmq mi sono messo a spulciare il demo di dirt per l'xbox360 e le ombre non mi sono sembrate al max, il resto sembra al massimo.

C'è il thread ufficiale del gioco.....non mi sembra il caso di sporcare ancora di più questo thread ;)

Raven
29-06-2007, 09:54
C'è il thread ufficiale del gioco.....non mi sembra il caso di sporcare ancora di più questo thread ;)

* ;)

Murphy
29-06-2007, 09:55
C'è il thread ufficiale del gioco.....non mi sembra il caso di sporcare ancora di più questo thread ;)

Hai ragione ma di la non ho beccato nessuno!

Vabbè riprovo la grazie!

ciao;)

berry83
29-06-2007, 10:03
secondo voi quale scheda da il miglior compromesso per lavorare con inventor e vari programmi 3d e per giocare tra :
8800 gts 640
2900 xt

serve maggiormente x inventor e altri programmi 3d

+Lonewolf+
29-06-2007, 10:03
Si perchè la patch impone il settaggio delle ombre come massimo su ALTO, e non più su ultra come avveniva senza patch.
Infatti anche se uno mette ultra e fa una gara vedrà che ritornando nel menù video il settaggio sarà tornato su alto in automatico.
Quindi è logico che faccia di più ;)

anche prima facevo quei resultra, senza patch, li ho postati qlk pagina fa...cmq con le ombre su ultra nn perdevo niente, ho già fatto questi test, proprio sullo shading la 2900 sta apposto

+Lonewolf+
29-06-2007, 10:04
secondo voi quale scheda da il miglior compromesso per lavorare con inventor e vari programmi 3d e per giocare tra :
8800 gts 640
2900 xt

serve maggiormente x inventor e altri programmi 3d

in ogni caso la 2900, mi pare abbia buone prestazioni con i progr 3d, poi nei giochi va nettamente meglio

berry83
29-06-2007, 10:11
in ogni caso la 2900, mi pare abbia buone prestazioni con i progr 3d, poi nei giochi va nettamente meglio

ho detto ke la funzione principale è x i programmi come inventor, non i gioki, cioè se la 8800 gts rispetto alla 2900 va 30% nei programmi 3d e la 2900 va il 20% di + nei gioki faccio prendere la 8800 al mio amico, xè tutte le case di software consigliano nvidia x via del miglior supporto opengl. io sono già apposto con la gtx :sofico:

Scrambler77
29-06-2007, 10:11
secondo voi quale scheda da il miglior compromesso per lavorare con inventor e vari programmi 3d e per giocare tra :
8800 gts 640
2900 xt

serve maggiormente x inventor e altri programmi 3d

in ogni caso la 2900, mi pare abbia buone prestazioni con i progr 3d, poi nei giochi va nettamente meglio

Se chiedi nel 3d della 8800 ti danno la risposta diametralmente opposta.

Secondo me nessuna delle due. Per gli applicativi professionali servono schede video più adatte a quel segmento.

Per inventor, nello specifico, Matrox.

Se poi ci devi giocare, la questione cambia.

Simon82
29-06-2007, 10:15
ma che monopolio scusa?? |fine ot|

O finite veramente gli OT o finite di postare per un bel periodo, lo assicuro.

+Lonewolf+
29-06-2007, 10:19
Se chiedi nel 3d della 8800 ti danno la risposta diametralmente opposta.


lo so, ma io nn m baso su voci o su mezzi bench...ho le mie buone ragioni, nn voglio nè difendere il mio acquisto nè giustificarlo...ho dovuto scegliere tra questa e la gtx e ho scelto questa per motivi molto precisi

Defragg
29-06-2007, 10:20
Se chiedi nel 3d della 8800 ti danno la risposta diametralmente opposta.

Secondo me nessuna delle due. Per gli applicativi professionali servono schede video più adatte a quel segmento.

Per inventor, nello specifico, Matrox.

Se poi ci devi giocare, la questione cambia.

quoto in toto :)

Scrambler77
29-06-2007, 10:21
Una recensione comparativa di Tom's Hw su AvivoHD e PureVideoHD:

http://www.tomshw.it/graphic.php?guide=20070608

Buona lettura.

Scrambler77
29-06-2007, 10:23
lo so, ma io nn m baso su voci o su mezzi bench...ho le mie buone ragioni, nn voglio nè difendere il mio acquisto nè giustificarlo...ho dovuto scegliere tra questa e la gtx e ho scelto questa per motivi molto precisi

Beh se i motivi sono gli stessi di berry83, mi sa che hai fatto un acquisto non proprio azzeccato.

Personalmente non monterei mai ne una GTS ne una 2900 in una workstation destinata alla grafica 2d/3d. Sceglierei Matrox/QuadroFX/FireGL in sequenza.

+Lonewolf+
29-06-2007, 10:30
Beh se i motivi sono gli stessi di berry83, mi sa che hai fatto un acquisto non proprio azzeccato.

Personalmente non monterei mai ne una GTS ne una 2900 in una workstation destinata alla grafica 2d/3d. Sceglierei Matrox/QuadroFX/FireGL in sequenza.

assolutamente no:D

sono ben altri, ho i miei buoni motivi x dire che la 2900 sarà molto molto longeva...datti una guardata alla sua architettura e ai suoi numeri e poi dimmmi che pensi

http://www.gpureview.com/show_cards.php?PHPSESSID=55c8f9876a24b67ee0ffc5c081bba02b&card1=518&card2=475

puoi fare comparative;)

A.L.M.
29-06-2007, 10:47
Una recensione comparativa di Tom's Hw su AvivoHD e PureVideoHD:

http://www.tomshw.it/graphic.php?guide=20070608

Buona lettura.

Certo che TOM's Hardware sta diventando sempre peggio... :rolleyes:
Pubblicano la recensione su AVIVO HD il giorno stesso dell'uscita delle HD2400/2600 e non le inseriscono nella comparazione... "Sorvolano" sul fatto che l'AVIVO HD sulle HD2900XT ancora non c'è, visto che i drivers dovrebbero attivare le funzionalità degli shaders che in RV630 vengono svolte dall'UVD...
Che razza di comparazione è? :confused:

Ecco delle vere recensioni dell'AVIVO HD (anche se B3D ed Hexus, siti seri, precisano che i drivers sono ancora immaturi).

Sotto Vista 32
http://www.beyond3d.com/content/reviews/28/7
http://www.hexus.net/content/item.php?item=9187&page=11

Sotto XP
http://www.ocworkbench.com/2007/powercolor/HD2600XT/b7.htm
http://www.ocworkbench.com/2007/powercolor/HD2600XT/b8.htm

Come si può notare la 2900 ha un uso della cpu ancora alto, proprio dovuto a questa mancanza di supporto corretto dell'accelerazione via shaders.
I risultati di RV610/630 sono ancora mixed, ma molto incoraggianti: sotto XP sembrano già ottimi.

Scrambler77
29-06-2007, 11:06
assolutamente no:D

sono ben altri, ho i miei buoni motivi x dire che la 2900 sarà molto molto longeva...datti una guardata alla sua architettura e ai suoi numeri e poi dimmmi che pensi

http://www.gpureview.com/show_cards.php?PHPSESSID=55c8f9876a24b67ee0ffc5c081bba02b&card1=518&card2=475

puoi fare comparative;)

No grazie... ho già espresso la mia idea qlk settimana fa e per questo sono stato messo diversi giorni in vacanza... :asd:

Cmq sappi che non è l'architettura a determinare la longevità di un prodotto...

TecnoWorld8
29-06-2007, 11:16
credo che un primo banco di prova importante per queste nuove schede sarà il gioco Bioshock. Anche se sarà ancora soprattutto DX9, avrà già il supporto DX10 e uscirà ad agosto, dunque tra meno di due mesi. Dai filmati che ho visto, penso farà un uso pesante degli shaders.

vedremo come lo faranno girare con tutti i settaggi al massimo ed a risoluzioni elevate.

poi ovviamente la prova del fuoco ci sarà con crysis...

+Lonewolf+
29-06-2007, 11:46
credo che un primo banco di prova importante per queste nuove schede sarà il gioco Bioshock. Anche se sarà ancora soprattutto DX9, avrà già il supporto DX10 e uscirà ad agosto, dunque tra meno di due mesi. Dai filmati che ho visto, penso farà un uso pesante degli shaders.

vedremo come lo faranno girare con tutti i settaggi al massimo ed a risoluzioni elevate.

poi ovviamente la prova del fuoco ci sarà con crysis...

si...penso d + bioshock cmq...nn mi stupirei se crysis girasse solo su VGA nvidia

ale0bello0pr
29-06-2007, 11:49
si...penso d + bioshock cmq...nn mi stupirei se crysis girasse solo su VGA nvidia

è stato realizzato infatti con INVIDIA+INTEL+MICROSOFT Crysis.... Ovviamente SOLO no...magari meglio...però aspettiamo ;) io ho sicuramente in preventivo a dicembre/gennaio 8950GX2
a proposito..... il thread è stato chiuso ancora... :cry::mbe:

DakmorNoland
29-06-2007, 11:53
è stato realizzato infatti con INVIDIA+INTEL+MICROSOFT Crysis....
a proposito..... il thread è stato chiuso ancora... :cry::mbe:

Sì cmq non vuol dire, le schede ATI ai tempi d'oro giravano meglio anche delle Nvidia persino nei giochi con logo Nvidia!!!!

Secondo me + che il gioco conta quanto riusciranno a fare in sti mesi con i catalyst per le 2900. Per ora sono ad uno stato pietoso, e cmq già tirano ste schede, speriamo bene.

Nos89
29-06-2007, 12:22
Sì cmq non vuol dire, le schede ATI ai tempi d'oro giravano meglio anche delle Nvidia persino nei giochi con logo Nvidia!!!!

Secondo me + che il gioco conta quanto riusciranno a fare in sti mesi con i catalyst per le 2900. Per ora sono ad uno stato pietoso, e cmq già tirano ste schede, speriamo bene.

ma non mi risulta che ''tirano'' e neanche l'ombra di questi driver.........che al momento sono a dir poco pietosi.

A.L.M.
29-06-2007, 12:56
E' uscita una nuova interessante review della HD2900XT su TechARP.
http://www.techarp.com/showarticle.aspx?artno=418&pgno=0

Altri test CoH DX10 su Vista32. :)

http://www.techarp.com/review/ATI/Radeon_HD_2900XT/coh_directx10_comparison.png

Free Gordon
29-06-2007, 12:57
già...sarebbe meglio un bel monopolio Ati.... :rolleyes:


Ma che c'entra.. :doh:

Piuttosto sarebbe ora che nVidia la smettesse di impiegare soldi nel TWIMTB (e precedenti) e iniziasse a seguire le specifiche delle directX, invece di fare hw a modo loro, facendo poi accordi con le softhouse per fare andare forte i giochi sulle loro architetture, sfavorendo le altre.... :asd: (ovviamente è una contingenza, non un accordo vero e proprio: se scelgo di scrivere il software, non appoggiandomi alle specs dx ma tenendo conto degli hw e favorendo una filosofia hw rispetto all'altra... è ovvio che poi di conseguenza, danneggio uno dei due concorrenti. ;) Essenzialmente quello che ha scelto di essere più aderente alle specs dx).

Se c'è un modo di avere concorrenza leale è proprio questo: vengono definite le specs dx (da tutti)... si creano gli hw sopra quelle basi e poi le softhouse sviluppano i giochi facendo affidamento sulla base hw e software COMUNE, esistente...

Ma questo procedimento ad nVidia non è MAI piaciuto. :)
Meglio scegliere la strada più remunerativa, con R&D minore possibile e tempi di sviluppo hw più ridotti: tanto poi i giochi li fanno in base al nostro hw... :asd:

Altro che monopolio ATI..... :doh: riprenditi và....

Free Gordon
29-06-2007, 13:06
E' uscita una nuova interessante review della HD2900XT su TechARP.
http://www.techarp.com/showarticle.aspx?artno=418&pgno=0
Altri test CoH DX10 su Vista32. :)

Nella vers DX10 di CoH, pare che la 2900XT vada come una 8800GTX.. ^_^
Bel risultato!

Pat77
29-06-2007, 13:08
credo che un primo banco di prova importante per queste nuove schede sarà il gioco Bioshock. Anche se sarà ancora soprattutto DX9, avrà già il supporto DX10 e uscirà ad agosto, dunque tra meno di due mesi. Dai filmati che ho visto, penso farà un uso pesante degli shaders.

vedremo come lo faranno girare con tutti i settaggi al massimo ed a risoluzioni elevate.

poi ovviamente la prova del fuoco ci sarà con crysis...

Speriamo, anche perchè al di la di tutto mi sa di gran titolone ;)

Free Gordon
29-06-2007, 13:10
io ho visto parecchi filmati di dirt su x360...ma sinceramente era tutto tranne fluido..scattava vergognosamente...ora pero mi piacerebbe sapere come dettagli la versione della x360 a cosa corrisponde grossomodo in quella pc....


Su 360 i setting mediamente sono su ALTO. No Ultra. ;)
Ho fatto le prove sullo stesso monitor (ho la 360).

Ma non è quello il problema, tra la mia 1800XT e la vers360 ci sono circa 10-12 (su 30) fps di differenza nella visuale interna.

Manco su 360 (perlomeno il demo) è così fluido, cmq.

Pat77
29-06-2007, 13:13
Sì cmq non vuol dire, le schede ATI ai tempi d'oro giravano meglio anche delle Nvidia persino nei giochi con logo Nvidia!!!!

Secondo me + che il gioco conta quanto riusciranno a fare in sti mesi con i catalyst per le 2900. Per ora sono ad uno stato pietoso, e cmq già tirano ste schede, speriamo bene.

Uno stato pietoso è una descrizione ben lontana dai driver attuali, sono solamente acerbi, i giochi girano tutti, i crash che ho avuto sono stati 0, devono programmare il memory controller e qualche incompatibilità nono risolta, la correzione di alcuni bug.
Per ora non c'è gioco che non è partito o si è impallato.

Free Gordon
29-06-2007, 13:15
Io su Dirt a casa su hd2900 non ho problemi, giocando col dettaglio su x1900 gt va fluido, solo le gare con molte macchine sono un problema, con frame rate sui 20-22.

Visuale interna nelle gare buggie, con la 1900 fai più di 20fps?

In questo gioco R580 e derivati mostrano un'efficienza maggiore rispetto ad R520, a questo punto...

A.L.M.
29-06-2007, 13:15
Uno stato pietoso è una descrizione ben lontana dai driver attuali, sono solamente acerbi, i giochi girano tutti, i crash che ho avuto sono stati 0, devono programmare il memory controller e qualche incompatibilità nono risolta, la correzione di alcuni bug.
Per ora non c'è gioco che non è partito o si è impallato.

TechARP dice che FarCry con i Cat 7.5 non parte con Vista32... :stordita:

Scrambler77
29-06-2007, 13:16
Ma che c'entra.. :doh:

Piuttosto sarebbe ora che nVidia la smettesse di impiegare soldi nel TWIMTB (e precedenti) e iniziasse a seguire le specifiche delle directX, invece di fare hw a modo loro, facendo poi accordi con le softhouse per fare andare forte i giochi sulle loro architetture, sfavorendo le altre.... :asd: (ovviamente è una contingenza, non un accordo vero e proprio: se scelgo di scrivere il software, non appoggiandomi alle specs dx ma tenendo conto degli hw e favorendo una filosofia hw rispetto all'altra... è ovvio che poi di conseguenza, danneggio uno dei due concorrenti. ;) Essenzialmente quello che ha scelto di essere più aderente alle specs dx).

Se c'è un modo di avere concorrenza leale è proprio questo: vengono definite le specs dx (da tutti)... si creano gli hw sopra quelle basi e poi le softhouse sviluppano i giochi facendo affidamento sulla base hw e software COMUNE, esistente...

Ma questo procedimento ad nVidia non è MAI piaciuto. :)
Meglio scegliere la strada più remunerativa, con R&D minore possibile e tempi di sviluppo hw più ridotti: tanto poi i giochi li fanno in base al nostro hw... :asd:

Altro che monopolio ATI..... :doh: riprenditi và....

Ma mi spieghi quale azienda si siederebbe ad un tavolo per patteggiare con la concorrenza l'architettura che poi dovrà sviluppare e vendere?

La tua idea di concorrenza è un po' sballata: in ambito commerciale non esistono compromessi. Vince chi ha il prodotto migliore e che, quindi, decide il mercato.

Se ATi domani tira fuori un'architettura dalle qualità tanto magnifiche da convincere Microsoft ad "adottarla" come riferimento, le specs successive si spostano su quell'architettura. Al contrario può capitare con nVidia.

Tra l'altro non puoi proprio dire che AMD/ATi siano aperti allo sviluppo di soluzioni "comuni": basta dare uno sguardo all'ambito "comune" per antonomasia: l'open source. Non esiste codice aperto (valido) per i drivers ATi.

Ogni azienda fa quello che ritiene più giusto, e tutte le altre seguono a ruota.
Per le CPU prima era AMD a dettare legge coi suoi processori ed a spingere le aziende a supportare molto quella piattaforma. Oggi è il contrario: ci sono molti più modelli eterogenei di mobo per Intel che per AMD. Ti immagini AMD ed Intel seduti ad un tavolo per progettare le specs dei prossimi proci?? Io no.

P.S: Quel "riprenditi và" io non l'avrei scritto...

Pat77
29-06-2007, 13:17
Su 360 i setting mediamente sono su ALTO. No Ultra. ;)
Ho fatto le prove sullo stesso monitor (ho la 360).

Ma non è quello il problema, tra la mia 1800XT e la vers360 ci sono circa 10-12 (su 30) fps di differenza nella visuale interna.

Manco su 360 (perlomeno il demo) è così fluido.

Ho visto la versione 360, non mi ha impressionato molto come fluidità e resa, soprattutto per la mancanza di af e fsaa (potrebbe anche essere la tele), è meglio con le gare a più macchine, ma peggio nel rally singolo (uso la visuale dall'alto).

Free Gordon
29-06-2007, 13:20
Uno stato pietoso è una descrizione ben lontana dai driver attuali, sono solamente acerbi, i giochi girano tutti, i crash che ho avuto sono stati 0, devono programmare il memory controller e qualche incompatibilità nono risolta, la correzione di alcuni bug.
Per ora non c'è gioco che non è partito o si è impallato.

Ma sotto Vista non ti si è mai impallato un gioco??
A me Stalker si è impallato almeno 3 volte, sotto Vista32.

Pat77
29-06-2007, 13:21
Visuale interna nelle gare buggie, con la 1900 fai più di 20fps?

In questo gioco R580 e derivati mostrano un'efficienza maggiore rispetto ad R520, a questo punto...

Si ma giocando col dettaglio ho specificato, diciamo su medio-alto senza fsaa e ombre basse, è il compromesso migliore che ho trovato su X1900GT.

Poi aumentando ho notato che nelle gare a più vetture rimane più o meno = il frame rate, mentre nel rally singolo scende.

Ho installato anche la patch.

Pat77
29-06-2007, 13:23
Ma sotto Vista non ti si è mai impallato un gioco??
A me Stalker si è impallato almeno 3 volte, sotto Vista32.

Da quando ho installato Hd2900 non mi si è impallato nessun gioco sotto vista 64, se poi sul 32 è diverso non saprei.

Free Gordon
29-06-2007, 13:23
Ho visto la versione 360, non mi ha impressionato molto come fluidità e resa, soprattutto per la mancanza di af e fsaa (potrebbe anche essere la tele), è meglio con le gare a più macchine, ma peggio nel rally singolo (uso la visuale dall'alto).


Infatti il problema è dove l'ha visto.. :D c'è l'MSAA 4x nella vers 360. ;)
Confrontati entrambi i giochi (con vari setting, con e senza AA, AF ecc), sul mio monitorone da 24 in sign.

Non so cosa intendi per meglio o peggio (parli di grafica?) ma come giocabilità mi pare identico.

Pat77
29-06-2007, 13:25
TechARP dice che FarCry con i Cat 7.5 non parte con Vista32... :stordita:

:mc: Può essere, ma ovviamente parlo dei miei 2 pc e dell'esperienza che sto sperimentando, 0 crash, anche se so che mi sto portando rogna da solo.

Pat77
29-06-2007, 13:25
Infatti il problema è dove l'ha visto.. :D c'è l'MSAA 4x nella vers 360. ;)
Confrontati entrambi i giochi (con vari setting, con e senza AA, AF ecc), sul mio monitorone da 24 in sign.

Non so cosa intendi per meglio o peggio (parli di grafica?) ma come giocabilità mi pare identico.

Frame rate intendo ;)
Sul mio primo pc posso dire tranquillamente che come resa e fluidità sia meglio ;)

Free Gordon
29-06-2007, 13:41
Ma mi spieghi quale azienda si siederebbe ad un tavolo per patteggiare con la concorrenza l'architettura che poi dovrà sviluppare e vendere?

Non deve patteggiare nulla...
Le DX non dico che sono decise in toto da Ms, ma quest'ultima ha gran voce in capitolo, essendo sue le API.
Queste sono fonte di guadagno per tutti (e base di quest'industria, assieme all'OS) e, ascoltati i pareri degli sviluppatori e delle case produttrici di HW (Nvidia e ATI nello specifico), Ms stessa crea un set di librerie che stabiliscono che direzione deve prendere l'hw nell'immediato futuro (1.5-2 anni in media).



La tua idea di concorrenza è un po' sballata: in ambito commerciale non esistono compromessi. Vince chi ha il prodotto migliore e che, quindi, decide il mercato.

:asd:
La prima regola della concorrenza, è che ci dev'essere un campo comune di confronto, sennò la concorrenza va subito a farsi friggere... :doh:

Ok, pare una cosa utopica, ma per quanto possa sembrare assurdo, in questo "piccolo" campo dell'economia mondiale, senza la mano lunga di nVidia, questa cosa sarebbe anche possibile.

Cmq sono fiducioso per il futuro. ;)



Se ATi domani tira fuori un'architettura dalle qualità tanto magnifiche da convincere Microsoft ad "adottarla" come riferimento, le specs successive si spostano su quell'architettura. Al contrario può capitare con nVidia.

Non hai capito bene come dovrebbe funzionare (e come in realtà, funziona quasi per tutti).
ATI non tira fuori un bel niente, ATI fa R&D e poi propone delle cose, (come le propone nVidia e tutti gli sviluppatori coinvolti) poi si fanno le dx e poi si fanno gli hw sopra a questa specs.

Così dovrebbe essere, anche se, con nVidia di mezzo, così in realtà non è.



Tra l'altro non puoi proprio dire che AMD/ATi siano aperti allo sviluppo di soluzioni "comuni": basta dare uno sguardo all'ambito "comune" per antonomasia: l'open source. Non esiste codice aperto (valido) per i drivers ATi.

"Comune" deve essere il terreno di scontro, stiamo parlando di Windows e delle dx, non divagare. :)

Quando ci saranno delle API da gioco per Linux, a livello di quelle Ms, ne riparleremo e vedremo chi sarà in quel business o meno. ;)



Ps. è più o meno dal 2001/2002 che succede questo: Ms fa le DX, ATI sviluppa un archi su queste specs (tecnologicamente sempre molto all'avanguardia, con grandi sforzi), nVidia ne fa una sua stringendo accordi diretti coi produttori, dando una compatibilità "ufficiale" alle specs Ms.

ATI a questo punto cerca di adattarsi a livello software, nVidia continua a fare il bello e cattivo tempo. :D

L'esempio più lampante di questa situazione è stata la debàcle di nv30, dove nVidia si è trovata a fronteggiare l'incresciosa situazione in cui molti sviluppatori, avevano deciso di fare di testa loro :asd: e programmare seguendo strettamente le specs sm2...(e oltretutto c'è stato l'accordo Valve-ATI a peggiorare la situazione).

Ma nulla, nè uscita indenne, come sempre, anzi ha tirato fuori l'architettura più avanzata della sua storia, NV40! :asd:

Non mi è mai piaciuta la filosofia di nVidia nel creare gli hw e nel fare business in genere, se devo proprio dirlo, preferirei ci fosse almeno un altro concorrente forte nel settore GPU.. ma credo purtroppo questa resterà soltanto utopia.

Free Gordon
29-06-2007, 13:42
Frame rate intendo ;)
Sul mio primo pc posso dire tranquillamente che come resa e fluidità sia meglio ;)


Beh dai, vorrei ben vedere se così non fosse!!! :sofico:
Ovvio che su 2900 dovrai avere un'esperienza nettamente migliore.

DjLode
29-06-2007, 13:51
Ma mi spieghi quale azienda si siederebbe ad un tavolo per patteggiare con la concorrenza l'architettura che poi dovrà sviluppare e vendere?


Nessun, concordo che farli sedere allo stesso tavolo è fantascienza.


La tua idea di concorrenza è un po' sballata: in ambito commerciale non esistono compromessi. Vince chi ha il prodotto migliore e che, quindi, decide il mercato.


Sbagliato. Vince chi riesce a vendere meglio il proprio prodotto.
Altrimenti spiegami i lettori iPod che spopolano sul mercato (e che ho comprato pure io e che trovo ottimi) a fronte di altri mille mila lettori mp3 sul mercato con caratteristiche superiori. Oppure spiega il termine "migliore", perchè riferito ad una scheda video può essere quello più veloce (ma che costa uno sproposito, e che mercato non fa) o quello con il miglior rapporto prezzo/prestazioni. Quindi la frase sopra non è semplicemente dimostrabile :)


Se ATi domani tira fuori un'architettura dalle qualità tanto magnifiche da convincere Microsoft ad "adottarla" come riferimento, le specs successive si spostano su quell'architettura. Al contrario può capitare con nVidia.


E' già successo....


Tra l'altro non puoi proprio dire che AMD/ATi siano aperti allo sviluppo di soluzioni "comuni": basta dare uno sguardo all'ambito "comune" per antonomasia: l'open source. Non esiste codice aperto (valido) per i drivers ATi.


Per i drivers Nvidia invece sì? Non mi risulta...

Scrambler77
29-06-2007, 13:52
Non deve patteggiare nulla...
Le DX non dico che sono decise in toto da Ms, ma quest'ultima ha gran voce in capitolo, essendo sue le API.
Queste sono fonte di guadagno per tutti (e base di quest'industria, assieme all'OS) e, ascoltati i pareri degli sviluppatori e delle case produttrici di HW (Nvidia e ATI nello specifico), Ms stessa crea un set di librerie che stabiliscono che direzione deve prendere l'hw nell'immediato futuro (1.5-2 anni in media).

:asd:
La prima regola della concorrenza, è che ci dev'essere un campo comune di confronto, sennò la concorrenza va subito a farsi friggere... :doh:

Ok, pare una cosa utopica, ma per quanto possa sembrare assurdo, in questo "piccolo" campo dell'economia mondiale, senza la mano lunga di nVidia, questa cosa sarebbe anche possibile.

Cmq sono fiducioso per il futuro. ;)

Non hai capito bene come dovrebbe funzionare (e come in realtà, funziona quasi per tutti).
ATI non tira fuori un bel niente, ATI fa R&D e poi propone delle cose, (come le propone nVidia e tutti gli sviluppatori coinvolti) poi si fanno le dx e poi si fanno gli hw sopra a questa specs.

Così dovrebbe essere, anche se, con nVidia di mezzo, così in realtà non è.

"Comune" deve essere il terreno di scontro, stiamo parlando di Windows e delle dx, non divagare. :)

Quando ci saranno delle API da gioco per Linux, a livello di quelle Ms, ne riparleremo e vedremo chi sarà in quel business o meno. ;)

OMG! :mbe:

Non posso che presumere che stia scherzando... altrimenti il fatto che tu ragioni in termini di DX (e basta) è allarmante... Tutti gli altri (opengl in primis) sarebbero esclusi dalla tuo concetto di "concorrenza".

Per quanto riguarda linux, mi pare di capire che non sappia di cosa stai parlando, pertanto preferisco non argomentare oltre. Se non c'è una API valida su linux (almeno non ancora) è proprio a causa di DX (chiuse e tutt'altro che accessibili alla "concorrenza"). Non a caso Winzoz è l'unica piattaforma di gioco su PC.

OT chiuso.

Scrambler77
29-06-2007, 13:54
Per i drivers Nvidia invece sì? Non mi risulta...

Si. Ogni distro può customizzare i sorgenti in base a specifiche esigenze. Per non parlare del supporto.

Pat77
29-06-2007, 13:57
OMG! :mbe:

Non posso che presumere che stia scherzando... altrimenti il fatto che tu ragioni in termini di DX (e basta) è allarmante... Tutti gli altri (opengl in primis) sarebbero esclusi dalla tuo concetto di "concorrenza".

Per quanto riguarda linux, mi pare di capire che non sappia di cosa stai parlando, pertanto preferisco non argomentare oltre. Se non c'è una API valida su linux (almeno non ancora) è proprio a causa di DX (chiuse e tutt'altro che accessibili alla "concorrenza"). Non a caso Winzoz è l'unica piattaforma di gioco su PC.

OT chiuso.

Ah, se linux non ha un Api 3d tutta sua sarebbe colpa di Dx? O forse Dx è più accessibile, semplice, facile e meno dispendiosa (in tempo di programmazione) rispetto a open-gl che proprio per questi motivi non si è imposta?

Free Gordon
29-06-2007, 14:01
OMG! :mbe:
Non posso che presumere che stia scherzando... altrimenti il fatto che tu ragioni in termini di DX (e basta) è allarmante... Tutti gli altri (opengl in primis) sarebbero esclusi dalla tuo concetto di "concorrenza".

Il discorso API, è un altro.
Se gli sviluppatori vanno verso DX, avranno le loro ragioni (economiche).

Gli sviluppatori sono tanti, non due o tre... :)

Se ad oggi Dx è molto più avanti di OGL nello sviluppo software, non sono io a dover stabilire il perchè, ne prendo solo atto.
E non lo dico io, lo dice proprio Carmack, il più fervente sostenitore del consorzio OGL.

DjLode
29-06-2007, 14:01
Si. Ogni distro può customizzare i sorgenti in base a specifiche esigenze. Per non parlare del supporto.

Ok, quindi tu, persona privata, non puoi andare a sfrugugliare nel codice. Non è open source. Tant'è che io sul sito i sorgenti non li trovo.
Ti cito la Software License:

"2.1.2 Linux/FreeBSD Exception. Notwithstanding the foregoing terms of Section 2.1.1, SOFTWARE designed exclusively for use on the Linux or FreeBSD operating systems, or other operating systems derived from the source code to these operating systems, may be copied and redistributed, provided that the binary files thereof are not modified in any way (except for unzipping of compressed files)."

"2.1.3 Limitations.
No Reverse Engineering. Customer may not reverse engineer, decompile, or disassemble the SOFTWARE, nor attempt in any other manner to obtain the source code."

Tu questa la chiami Open Source? ;)

Scrambler77
29-06-2007, 14:28
Ok, quindi tu, persona privata, non puoi andare a sfrugugliare nel codice. Non è open source. Tant'è che io sul sito i sorgenti non li trovo.
Ti cito la Software License:

"2.1.2 Linux/FreeBSD Exception. Notwithstanding the foregoing terms of Section 2.1.1, SOFTWARE designed exclusively for use on the Linux or FreeBSD operating systems, or other operating systems derived from the source code to these operating systems, may be copied and redistributed, provided that the binary files thereof are not modified in any way (except for unzipping of compressed files)."

"2.1.3 Limitations.
No Reverse Engineering. Customer may not reverse engineer, decompile, or disassemble the SOFTWARE, nor attempt in any other manner to obtain the source code."

Tu questa la chiami Open Source? ;)

No... e ci mancherebbe! Quelli sono i drivers closed, esattamente come quelli di ATi (ma con un supporto molto più esteso, e già questo è tanto) :rolleyes:

Io mi riferisco ai progetti opensource di X.org e Freedesktop.org, abbondantemente e parallelamente supportati e tutt'ora in via di sviluppo. ;)

EDIT: e se non ricordo male, i drivers per nForce sono già opensource con licenza GPL.

-Feanor-
29-06-2007, 14:29
Il discorso API, è un altro.
Se gli sviluppatori vanno verso DX, avranno le loro ragioni (economiche).

Gli sviluppatori sono tanti, non due o tre... :)

Se ad oggi Dx è molto più avanti di OGL nello sviluppo software, non sono io a dover stabilire il perchè, ne prendo solo atto.
E non lo dico io, lo dice proprio Carmack, il più fervente sostenitore del consorzio OGL.

il fatto è che microcozz ha speso davvero uno sproposito per far si che dx divenissero lo standard a discapito di altre soluzioni....è ovvio che le ogl essendo open source non hanno di certo la disponibilita economica per fare altrettanto e quindi, pur essendo qualitativamente equivalenti, diciamo pure che sono piu "scomode" e ormai riservate ad una, purtroppo, ristretta nicchia...

Athlon 64 3000+
29-06-2007, 14:35
http://support.ati.com/ics/support/default.asp?deptID=894

oggi è venuto fuori questo pero il link del driver non funziona.

DjLode
29-06-2007, 14:38
No... e ci mancherebbe! Quelli sono i drivers closed, esattamente come quelli di ATi (ma con un supporto molto più esteso, e già questo è tanto) :rolleyes:


Tu parlavi di oper source, quindi ti sei spiegato male no?


Io mi riferisco ai progetti opensource di X.org e Freedesktop.org, abbondantemente e parallelamente supportati e tutt'ora in via di sviluppo. ;)


"l'open source. Non esiste codice aperto (valido) per i drivers ATi."
Tu hai detto questo. Se poi intendevi altro, bastava dirlo ;)


EDIT: e se non ricordo male, i drivers per nForce sono già opensource con licenza GPL.

E cosa c'entra con le schede video?
Esaurito l'argomento, torniamo IT va che magari i moderatori si incazzano...

Scrambler77
29-06-2007, 14:44
Tu parlavi di oper source, quindi ti sei spiegato male no?

"l'open source. Non esiste codice aperto (valido) per i drivers ATi."
Tu hai detto questo. Se poi intendevi altro, bastava dirlo ;)

E cosa c'entra con le schede video?
Esaurito l'argomento, torniamo IT va che magari i moderatori si incazzano...

Non credo di aver mai scritto che i drivers proprietari nvidia sono open... Forse hai letto male tu, non mi sono spiegato male io. ;)

Condivido con la questione dell'OT. Meglio chiudere quì che se s'incazzano poi c'hanno ragione.

gianni1879
29-06-2007, 16:31
se vi interessa un confronto al volo tra i 7.5 e 7.6, guardate
http://www.xtremehardware.it/forum/f14/x2900xt_power-3980/index5.html#post49336

test fatti da deos ;)

-Feanor-
29-06-2007, 16:40
se vi interessa un confronto al volo tra i 7.5 e 7.6, guardate
http://www.xtremehardware.it/forum/f14/x2900xt_power-3980/index5.html#post49336

test fatti da deos ;)

:asd:.......ottima cmq ;)
è alquanto evidente che in questa release si siano concentrati sul supporto opengl....soprattutto sotto vista se non ho capito male...il che è un bene....prey arriva a guadagni del 40% rispetto ai 7.5...ora tocca al boost prestazionale sotto dx...9 e 10.....:Perfido:

gianni1879
29-06-2007, 16:48
:asd:.......ottima cmq ;)
è alquanto evidente che in questa release si siano concentrati sul supporto opengl....soprattutto sotto vista se non ho capito male...il che è un bene....prey arriva a guadagni del 40% rispetto ai 7.5...ora tocca al boost prestazionale sotto dx...9 e 10.....:Perfido:

hanno fatto un ottimo lavoro con prey!!!

chissa se i source engine hanno avuto lo stesso incremento :)

TecnoWorld8
29-06-2007, 16:51
hanno fatto un ottimo lavoro con prey!!!



peccato che prey (e gli altri derivati doom3) continuano a non avere il triple buffering nelle risoluzioni WIDE...è scandaloso questo bug, glielo segnalo da mesi e non fanno nulla!

Chief
29-06-2007, 17:15
se vi interessa un confronto al volo tra i 7.5 e 7.6, guardate
http://www.xtremehardware.it/forum/f14/x2900xt_power-3980/index5.html#post49336

test fatti da deos ;)

Peccato veramnete fare i test con i 7.6 e non gli hotfix ci sono degli incrementi su alcuni giochi, e la risoluzione di molti bug in alcuni giochi :read: Si inizia a muovere qualcosa :)

+Lonewolf+
29-06-2007, 17:43
Peccato veramnete fare i test con i 7.6 e non gli hotfix ci sono degli incrementi su alcuni giochi, e la risoluzione di molti bug in alcuni giochi :read: Si inizia a muovere qualcosa :)

peccato che nn ci siamo per i 64 bit...ancora...:D

Athlon 64 3000+
29-06-2007, 18:14
io ho provato gli ultimi hotfix per XP e in lost planet facendo il test senza ombre e AA e il resto sparato al massimo e rispetto ai catalist 7.6 ho notato un forte incremento prestazionale facendo registrare a 1280x1024 una media di 67 fps quando prima facevo poco più di 40 fps.

A.L.M.
29-06-2007, 18:28
Se qualcuno ha Vista magari provi a fare un benchmark con Lost Planet DX10, tanto per iniziare a capire se hanno corretto un minimo le performance...

gianni1879
29-06-2007, 18:58
Peccato veramnete fare i test con i 7.6 e non gli hotfix ci sono degli incrementi su alcuni giochi, e la risoluzione di molti bug in alcuni giochi :read: Si inizia a muovere qualcosa :)

gli hotfix oggi non riesce a scaricarli :(

infatti dovevamo testare pure loro al volo, vediamo nei prox gg se si può ;)

gianni1879
29-06-2007, 19:02
io ho provato gli ultimi hotfix per XP e in lost planet facendo il test senza ombre e AA e il resto sparato al massimo e rispetto ai catalist 7.6 ho notato un forte incremento prestazionale facendo registrare a 1280x1024 una media di 67 fps quando prima facevo poco più di 40 fps.

bene mi sa che si stanno muovendo alla grande, chi diceva che i driver non davano superiori prestazione si dovrà mangiare le mani :asd:

questo è il primo test fatto con i vecchi driver e prey, aggiungete l'incremento percentuale del grafico in basso e vi accorgerete che la 8800gts640 è stata superata di brutto, certo non siamo ai livelli della 8800gtx però...

http://www.hwstation.net/img_rec/sapphire_radeon_hd_x2900xt_512mb/SapphireX2900XT_Grafico13.png

mentre questo è quello nuovo fatto con i 7.6
http://www.hwstation.net/img/news/allegati/Grafico5.JPG

Scrambler77
29-06-2007, 19:09
bene mi sa che si stanno muovendo alla grande, chi diceva che i driver non davano superiori prestazione si dovrà mangiare le mani :asd:

questo è il primo test fatto con i vecchi driver e prey, aggiungete l'incremento percentuale del grafico in basso e vi accorgerete che la 8800gts640 è stata superata di brutto, certo non siamo ai livelli della 8800gtx però...


4fps filtri ON = "di brutto" :asd:

P.S: perchè non provi con gli ultimi forceware whql? ;)

DakmorNoland
29-06-2007, 19:16
4fps filtri ON = "di brutto" :asd:

P.S: perchè non provi con gli ultimi forceware whql? ;)

Ma va i forceware oramai sono alla frutta con le 8800...

Invece i catalyst solo alla secondo revisione, appena un mese dopo il lancio hanno già migliorato le prestazioni di questa scheda di 18FPS a 1600x1200 con filtri attivati! Mostruoso!!!! Sta scheda spacca tutto! Insieme ai timpani s'intende! :D

gianni1879
29-06-2007, 19:17
4fps filtri ON = "di brutto" :asd:

P.S: perchè non provi con gli ultimi forceware whql? ;)

si ma gurdati i risultati senza filtri, prima e dopo, e in ogni caso ancora con i filtri la sk perde ancora in prestazioni.

e cmq si parla di un guadagno di circa il 40% senza filtri e di circa 20% con i filtri direi che non è male!!!

a 1600x1200 filtri off sono 30 in più

-Feanor-
29-06-2007, 19:17
4fps filtri ON = "di brutto" :asd:

P.S: perchè non provi con gli ultimi forceware whql? ;)

fa sempre comodo rigirare i dati come meglio si crede...:rolleyes: i 30/40 fps che fa in piu della gts senza filtri non li vedi ....:rolleyes: .....e poi guarda che guadagno enorme rispetto ai vecchi catalyst...cio indica che si migliorera ancora...;)

PS...come è cambiata la situazione con gli ultimi forceware...?? non ho seguito...ci sono stati dei miglioramenti prestazionali....??? dove...?? grazie mille...

Athlon 64 3000+
29-06-2007, 19:31
Ma va i forceware oramai sono alla frutta con le 8800...

Invece i catalyst solo alla secondo revisione, appena un mese dopo il lancio hanno già migliorato le prestazioni di questa scheda di 18FPS a 1600x1200 con filtri attivati! Mostruoso!!!! Sta scheda spacca tutto! Insieme ai timpani s'intende! :D

i driver per le 8800 hanno ancora margini di miglioramento.
Invece i catalist per R600 hanno secondo me dei grossi margini di miglioramento

davide155
29-06-2007, 19:38
i driver per le 8800 hanno ancora margini di miglioramento.
Invece i catalist per R600 hanno secondo me dei grossi margini di miglioramento

Scusa....per curiosità......visto che abbiamo più o meno lo stesso procio.

Quanto fai con la vga a default nel 3dmark 2006?
E il procio a che clock?

Merci :)

Athlon 64 3000+
29-06-2007, 20:06
Scusa....per curiosità......visto che abbiamo più o meno lo stesso procio.

Quanto fai con la vga a default nel 3dmark 2006?
E il procio a che clock?

Merci :)

non ho mai provato il 3dmark 2006 con la hd 2900xt,proverò magari domani a fare un test.
La cpu la tengo di default e va a 2,4 ghz.

Scrambler77
29-06-2007, 20:13
Ma va i forceware oramai sono alla frutta con le 8800...



PS...come è cambiata la situazione con gli ultimi forceware...?? non ho seguito...ci sono stati dei miglioramenti prestazionali....??? dove...?? grazie mille...

:mc:

Non risulta, anzi... gli ultimi beta su vista vanno meglio dei whql su XP! :asd:

http://www.hwupgrade.it/forum/showpost.php?p=17688186&postcount=12350

Defragg
29-06-2007, 20:15
Ma va i forceware oramai sono alla frutta con le 8800...

direi proprio di no ;)

-Feanor-
29-06-2007, 20:16
:mc:

Non risulta, anzi... gli ultimi beta su vista vanno meglio dei whql su XP! :asd:

forse hai capito male...il mio non era assolutamente un flame...era una domanda seria...

+Lonewolf+
29-06-2007, 20:19
dico solo che la 8800 ha mesi di drivers sulle spalle e il paragone per quanto riguarda i drivers eè proprio ridicolo...inoltre potreste anche vedere le prestazioni con i 7.7 beta...;)

Scrambler77
29-06-2007, 20:22
forse hai capito male...il mio non era assolutamente un flame...era una domanda seria...

Ed io ti ho risposto con un test su fear. (il link nel post precedente)

+Lonewolf+
29-06-2007, 20:25
Ed io ti ho risposto con un test su fear. (il link nel post precedente)

non che fear non sia valido ma cmq è abbastanza datato cm test...roba + nuova cn + shader nn cè?

poi manca il link...480fps max...?????

:asd:

-Feanor-
29-06-2007, 20:29
Ed io ti ho risposto con un test su fear. (il link nel post precedente)

scusa allora...non l'avevo visto.....:D :D :D .....pero notevole davvero...è incredibile che dopo 7 mesi ci sia ancora cosi tanto margine di miglioramento dei driver tra una release e l'altra....speriamo tanto che alla ati sappiano fare altrettanto...ma non ho dubbi...;)

Scrambler77
29-06-2007, 20:31
scusa allora...non l'avevo visto

nessun problema... ;)

Grey 7
29-06-2007, 21:58
si ma gurdati i risultati senza filtri, prima e dopo, e in ogni caso ancora con i filtri la sk perde ancora in prestazioni.

e cmq si parla di un guadagno di circa il 40% senza filtri e di circa 20% con i filtri direi che non è male!!!

a 1600x1200 filtri off sono 30 in più

infatti è veramente ottimo, con le release a seguire dovrebbe andare pure meglio. Non raggiungerà la gtx (d'altronde costa pure un bel po' di meno) ma la gts per lo meno la supera in scioltezza ;)

DVD2005
29-06-2007, 22:27
sono sempre iscritto a questa discussione pero' non la seguo piu' in modo assiduo come i primi giorni avendo poi optato per non acquistarla, c'e' qualche volenteroso che mi fa un piccolo aggiornamento sulle prestazioni con le nuove release dei driver?
Grazie :)

Kharonte85
29-06-2007, 22:33
sono sempre iscritto a questa discussione pero' non la seguo piu' in modo assiduo come i primi giorni avendo poi optato per non acquistarla, c'e' qualche volenteroso che mi fa un piccolo aggiornamento sulle prestazioni con le nuove release dei driver?
Grazie :)
La verita' è che è cambiato poco...:ops2:



Final Thoughts

AMD’s ATI Radeon HD 2900 XT continues to see performance increases and it is clear that this month the driver team had their eye on improving OpenGL performance, which is great considering Enemy Territory is just around the corner.

The bad news is though that there are still no changes to AA tests and this is something that is hurting the HD 2900 XT at the moment. It manages to look impressive when you compare it to the Nvidia cards in non-AA tests (and as far as price is concerned) but as soon as you start to crank up the settings like AA and AF, it can begin to slump.

With all that said not everyone is an AA person - I have personally never used it and if you are the same, it would probably make the HD 2900 XT the better option especially when you consider the price versus performance ratio.

Hopefully the driver team dives into the AA issue in future releases but as always check out the full release notes and if you didn’t upgrade last month to the Catalyst 7.5 drivers, with the increase in OpenGL performance here, we would suggest the upgrade this month with the 7.6 version!

Until next month - happy gaming and benchmarking!

http://www.tweaktown.com/articles/1123/8/page_8_final_thoughts/index.html

DVD2005
29-06-2007, 22:38
La verita' è che è cambiato poco...:ops2:



Final Thoughts

AMD’s ATI Radeon HD 2900 XT continues to see performance increases and it is clear that this month the driver team had their eye on improving OpenGL performance, which is great considering Enemy Territory is just around the corner.

The bad news is though that there are still no changes to AA tests and this is something that is hurting the HD 2900 XT at the moment. It manages to look impressive when you compare it to the Nvidia cards in non-AA tests (and as far as price is concerned) but as soon as you start to crank up the settings like AA and AF, it can begin to slump.

With all that said not everyone is an AA person - I have personally never used it and if you are the same, it would probably make the HD 2900 XT the better option especially when you consider the price versus performance ratio.

Hopefully the driver team dives into the AA issue in future releases but as always check out the full release notes and if you didn’t upgrade last month to the Catalyst 7.5 drivers, with the increase in OpenGL performance here, we would suggest the upgrade this month with the 7.6 version!

Until next month - happy gaming and benchmarking!

http://www.tweaktown.com/articles/1123/8/page_8_final_thoughts/index.html


Grazie Kharo :D

quindi le prestazioni senza filtri sono migliorate, pero' appena vengono messi crollano rispetto alla controparte. Quindi meglio da un lato e sempre lo stesso dall'altro.
Tornero' a farvi visita alle prossime release dei Cata ;)
ciao

Kharonte85
29-06-2007, 22:40
Grazie Kharo :D

quindi le prestazioni senza filtri sono migliorate, pero' appena vengono messi crollano rispetto alla controparte. Tornero' a farvi visita alle prossime release dei Cata ;)
ciao
Le prestazioni sono migliorate senza filtri in applicativi open GL di circa 5-10% (come prey) ma se si attivano i filtri non si notano miglioramenti (cmq se guardi bench della recensione che ti ho postato lo vedi da te ;) )

DakmorNoland
29-06-2007, 22:45
Le prestazioni sono migliorate senza filtri in applicativi open GL di circa 5-10% (come prey) ma se si attivano i filtri non si notano miglioramenti (cmq se guardi bench della recensione che ti ho postato lo vedi da te ;) )

Ehm ma veramente non so se erano i test postati da te, ma io ho visto un miglioramento di 18FPS a 1600x1200 con filtri!!!!

Con la 8800GTS 640MB superata di 4FPS, calcolando che le nvidia solitamente vanno sempre meglio in OpenGL mi sembra un risultato spettacolare!

Certo se ora sistemassero anche il rendimento con le DX9 e 10 non sarebbe male...

Kharonte85
29-06-2007, 22:47
Ehm ma veramente non so se erano i test postati da te, ma io ho visto un miglioramento di 18FPS a 1600x1200 con filtri!!!!

Su applicativo open gl è possibile...ma io non ne ho viste altre di recensioni comparative...:boh:

A.L.M.
29-06-2007, 22:50
Le prestazioni sono migliorate senza filtri in applicativi open GL di circa 5-10% (come prey) ma se si attivano i filtri non si notano miglioramenti (cmq se guardi bench della recensione che ti ho postato lo vedi da te ;) )

Beh, in quella recensione purtroppo Prey con AA è mostrato solo a 2560x1600, però stando alla comparazione fatta da HWStation a 1280x1024 e a 1600x1200 in Prey la differenza si nota eccome, anche coi filtri.
Tra l'altro stando a quanto si dice sul forum, le hotfix ai 7.6 hanno portato ulteriori miglioramenti/bugfix in vari giochi, da SCDA a Lost Planet (corretto solo parzialmente, ora se non si mettono le ombre su max e se non si attiva l'AA non crasha).

Ehm ma veramente non so se erano i test postati da te, ma io ho visto un miglioramento di 18FPS a 1600x1200 con filtri!!!!

Con la 8800GTS 640MB superata di 4FPS, calcolando che le nvidia solitamente vanno sempre meglio in OpenGL mi sembra un risultato spettacolare!

Certo se ora sistemassero anche il rendimento con le DX9 e 10 non sarebbe male...

Leggi quanto ho scritto sopra. :)
Per le DX10 bisognerà attendere i veri giochi DX10 non sponsorizzati/patchati, ma, a parte Lost Planet che in realtà a momenti manco parte sulle ATi, le HD2900 per ora vanno come e meglio delle GTX in DX10 (per quanto questi bench possano valere).

Kharonte85
29-06-2007, 22:55
Beh, in quella recensione purtroppo Prey con AA è mostrato solo a 2560x1600, però stando alla comparazione fatta da HWStation a 1280x1024 e a 1600x1200 in Prey la differenza si nota eccome, anche coi filtri.
Tra l'altro stando a quanto si dice sul forum, le hotfix ai 7.6 hanno portato ulteriori miglioramenti/bugfix in vari giochi, da SCDA a Lost Planet (corretto solo parzialmente, ora se non si mettono le ombre su max e se non si attiva l'AA non crasha).
Mi passeresti il link please? :)

+Lonewolf+
29-06-2007, 23:16
sono sempre iscritto a questa discussione pero' non la seguo piu' in modo assiduo come i primi giorni avendo poi optato per non acquistarla, c'e' qualche volenteroso che mi fa un piccolo aggiornamento sulle prestazioni con le nuove release dei driver?
Grazie :)

7.5

nessun miglioramento prestazionale

qualche miglioramento in compatibilità SO

aggiunta compatibilità directx 10

7.6

risolti numerosi bug su vista e xp

risolti i problemi del crossfire(anche se non rende ancora al meglio)

aggiunta gestione dinamica della venrola con relativa diminuzione del rumore in fasi poco "calde"

aggiunte funzioni di spegnimento aree gpu inutilizzate e relativi risparmi energetici

aggiunte funzioni di aumento/diminuzione voltaggi per 3d/2d

miglioramenti sostanziossissimi in OPEN GL con superamento della gts anche là

miglioramenti all'engine valve con utilizzo HDR


7.7 beta (hotfix 7.6)

sostanziosi miglioramenti performance un po' ovunque, specialmente con i filtri attivati grazie ad una programmazione migliore(ma non ancora ottimale) del ring bus

la vga sfrutta meglio i 512 bit di bus(ma haimè non ancora al meglio)

risolti i bug di LP(ma nn và l'AA altrimenti crash, stessa cosa x le ombre alte...tutto sommato ci si gioca benone)

risolti i bug di altri giochi quali r6vegas,coj,scda(che già andava alla grande adesso è una roccia)ecc..

prestazioni al bench di coj passate da 32fpsAVG a 36AVG(ne si deducono relativi miglioramenti all'architettura dx10), anche con i filtri ottimi results(MSAA 4x 28fps)

risolti i cali di prestazioni improvvisi

il resto non lo sa ma le prestazioni hanno avuto un bell aumento...




purtroppo per il mio SO64 bit non ci sn ancora...appena escono li provo e posto results + dettagliati

DakmorNoland
29-06-2007, 23:20
aggiunta gestione dinamica della venrola con relativa diminuzione del rumore in fasi poco "calde"


Ma quindi in game con i 7.6 è diminuito il rumore? Oppure sembra sempre di avere la turbina di un F14 Tomcat nel case? :p

+Lonewolf+
29-06-2007, 23:25
Ma quindi in game con i 7.6 è diminuito il rumore? Oppure sembra sempre di avere la turbina di un F14 Tomcat nel case? :p

mai sentita la turbina...io cel'ho nel case e nn mi ha mai dato fastidio...all'inizio era un po' + rumorosa, ma niente di eccessivo,c ontrariamente a come si diceva quassopra...cmq grazie alla gestione dinamica la ventola si regola in base al calore...quindi a meno che nn và in full non fa rumore

ps: in full non è una turbina, fa molto meno casino della 1900

DakmorNoland
29-06-2007, 23:32
mai sentita la turbina...io cel'ho nel case e nn mi ha mai dato fastidio...all'inizio era un po' + rumorosa, ma niente di eccessivo,c ontrariamente a come si diceva quassopra...cmq grazie alla gestione dinamica la ventola si regola in base al calore...quindi a meno che nn và in full non fa rumore

ps: in full non è una turbina, fa molto meno casino della 1900

Strano perchè girava un mp3 registrato da un tipo con microfono a 30cm dal case mi pare, si sentiva il click dei tasti della tastiera come paragone, e ti dico che era davvero rumorosissima! La x1900xt non l'ho mai sentita. Prima di mettere lo zalman sulla 1800gto2 avevo il la VGA con il dissi uguale alla 1800xt, che mi pare sia simile alla 1900xt, e devo dire che anche quando la scheda stava in full (sui 70°) non si sentiva, però forse era dovuto al fatto che la tenevo a default, quindi come fosse una 1800XL, probabilmente le XT scaldano di + e fanno aumentare i giri della ventola.

Al max cmq la sentivo solo all'accensione e faceva davvero un baccano infernale.

Dalla registrazione mi pareva che la 2900XT quando va in 3D fosse allo stesso livello purtroppo. :(

+Lonewolf+
29-06-2007, 23:39
Strano perchè girava un mp3 registrato da un tipo con microfono a 30cm dal case mi pare, si sentiva il click dei tasti della tastiera come paragone, e ti dico che era davvero rumorosissima! La x1900xt non l'ho mai sentita. Prima di mettere lo zalman sulla 1800gto2 avevo il la VGA con il dissi uguale alla 1800xt, che mi pare sia simile alla 1900xt, e devo dire che anche quando la scheda stava in full (sui 70°) non si sentiva, però forse era dovuto al fatto che la tenevo a default, quindi come fosse una 1800XL, probabilmente le XT scaldano di + e fanno aumentare i giri della ventola.

Al max cmq la sentivo solo all'accensione e faceva davvero un baccano infernale.

Dalla registrazione mi pareva che la 2900XT quando va in 3D fosse allo stesso livello purtroppo. :(


nn so che dirti...a me nn da affatto fastidio

loperloper
30-06-2007, 00:06
nn so che dirti...a me nn da affatto fastidio

questione d'abitudine ;)

Free Gordon
30-06-2007, 00:08
4fps filtri ON = "di brutto" :asd:
P.S: perchè non provi con gli ultimi forceware whql? ;)


Da 80 a 84 @1600x1200 filtri on: +4fps
Da 110 a 140 @1600x1200 filtri off: +30fps

Gli incrementi con filtri sono del 5%, ma senza sono del 28%! Non è molto facile vedere incrementi simili da una release all'altra di driver...ma nemmeno da un anno all'altro a dire il vero! :D

TecnoWorld8
30-06-2007, 00:20
mi piacerebbe capire come mai R600 fa così tanta fatica con i filtri...è una questione strutturale (Architettura?) o dei driver?

+Lonewolf+
30-06-2007, 00:21
questione d'abitudine ;)

nn ho avuto il tempo di farci l'abitudine dato che cel'ho da poco...nn ha mai fatto casino

vuoi saperlo meglio di me:confused:

+Lonewolf+
30-06-2007, 00:22
mi piacerebbe capire come mai R600 fa così tanta fatica con i filtri...è una questione strutturale (Architettura?) o dei driver?

precisamente del ringbus e dello sheduling, risolvibilissima via drivers;)

leoneazzurro
30-06-2007, 00:39
precisamente del ringbus e dello sheduling, risolvibilissima via drivers;)

Ni, sicuramente ci saranno dei miglioramenti, ma comunque R600 in teorie perderà sempre più di G80 nell'applicare un MSAA di tipo tradizionale.
Discorso diverso con i motori grafici che utilizzeranno tecniche come l'HDR correct AA, come visto nella patch di CoJ.

Free Gordon
30-06-2007, 00:43
La verita' è che è cambiato poco...:ops2:

Non sono i 7.5 che portano incrementi infatti. ;)

Free Gordon
30-06-2007, 00:53
mi piacerebbe capire come mai R600 fa così tanta fatica con i filtri...è una questione strutturale (Architettura?) o dei driver?

L'AF non è che implichi grossi cali nemmeno per R600, è l'AA di tipo "classico" che fa perdere molti frames a queste schede, perchè non hanno hw dedicato per quella funzione (anche se avrebbero banda a straf@ttere... :D)

Athlon 64 3000+
30-06-2007, 01:24
Ni, sicuramente ci saranno dei miglioramenti, ma comunque R600 in teorie perderà sempre più di G80 nell'applicare un MSAA di tipo tradizionale.
Discorso diverso con i motori grafici che utilizzeranno tecniche come l'HDR correct AA, come visto nella patch di CoJ.

Eppure negli schemi della architettura di R600 la circuiteria decicata al FSAA tradizionale c'è anche se gli mancarebbe un piccolo "pezzo" che non mi ricordo quale è.
Che cosa è il HDR Correct AA? :confused:

TecnoWorld8
30-06-2007, 01:32
L'AF non è che implichi grossi cali nemmeno per R600, è l'AA di tipo "classico" che fa perdere molti frames a queste schede, perchè non hanno hw dedicato per quella funzione (anche se avrebbero banda a straf@ttere... :D)

in pratica applicano l'AA usando altre tecniche? è molto interessante questo, perchè se usano altri unità di calcolo per farlo, se riescono a migliorare gli algoritmi che presiedono all'AA nei driver, allora teoricamente possono davvero aumentare le performance di parecchio...

+Lonewolf+
30-06-2007, 01:35
Eppure negli schemi della architettura di R600 la circuiteria decicata al FSAA tradizionale c'è anche se gli mancarebbe un piccolo "pezzo" che non mi ricordo quale è.
Che cosa è il HDR Correct AA? :confused:

AA via shader se non sbaglio

Iantikas
30-06-2007, 01:38
credo si riferisse al nuovo metodo d applicare l'AA tramite shaders ke è un nuovo metodo d'applicazione ke sfrutteranno i futuri gioki DX10 con istruzioni molto lunghe e complesse dato ke con l'AA tradizionale s potrebbero avere troppi errori ke porterebbero ad una visualizzazione errata dell'immagine a skermo...cmq anke G80 può farlo (sfruttando cmq anke il metodo tradizionale)...ciao

+Lonewolf+
30-06-2007, 01:59
credo si riferisse al nuovo metodo d applicare l'AA tramite shaders ke è un nuovo metodo d'applicazione ke sfrutteranno i futuri gioki DX10 con istruzioni molto lunghe e complesse dato ke con l'AA tradizionale s potrebbero avere troppi errori ke porterebbero ad una visualizzazione errata dell'immagine a skermo...cmq anke G80 può farlo (sfruttando cmq anke il metodo tradizionale)...ciao

si ma r600 sarà avvantaggiato rispetto a g80 grazie alle sue elevate shading op/sec molto + elevate rispetto a tutte le 8800 quindi la situazione filtri in quei casi si ribalterà

Athlon 64 3000+
30-06-2007, 02:25
lo so che R600 applica l'aa anche attraverso lo shader core,però mi ricordo che la circuiteria dedicata nelle rop's per l'aa c'è anche se manca un componente.

A.L.M.
30-06-2007, 07:03
Mi passeresti il link please? :)

http://www.xtremehardware.it/forum/f14/x2900xt_power-3980/index5.html#post49336

gianni1879
30-06-2007, 08:04
Le prestazioni sono migliorate senza filtri in applicativi open GL di circa 5-10% (come prey) ma se si attivano i filtri non si notano miglioramenti (cmq se guardi bench della recensione che ti ho postato lo vedi da te ;) )

Ripropongo i test fatti da Deos 7.5 vs 7.6, a breve testerà anche gli hotfix

questo è il primo test fatto con i vecchi driver e prey

http://www.hwstation.net/img_rec/sapphire_radeon_hd_x2900xt_512mb/SapphireX2900XT_Grafico13.png

mentre questo è quello nuovo fatto con i 7.6
http://www.hwstation.net/img/news/allegati/Grafico5.JPG

Kharonte85
30-06-2007, 10:26
Non sono i 7.5 che portano incrementi infatti. ;)
:mbe: mi hanno chiesto dei 7.6 e su quelli ho risposto...
http://www.xtremehardware.it/forum/f14/x2900xt_power-3980/index5.html#post49336
Prendendo per affidabile il tizio in questione mi sembra che confermi quello che avevo gia' detto io, gli incrementi sono in applicativi open gl

webbuffa
30-06-2007, 10:54
:) Sta provando anche gli HotFix!

http://www.xtremehardware.it/forum/49416-post59.html :cool:

MaRtH
30-06-2007, 11:17
:) Sta provando anche gli HotFix!

http://www.xtremehardware.it/forum/49416-post59.html :cool:


Chissà con gli 8.39 definitivi... ;)

Iantikas
30-06-2007, 11:52
si ma r600 sarà avvantaggiato rispetto a g80 grazie alle sue elevate shading op/sec molto + elevate rispetto a tutte le 8800 quindi la situazione filtri in quei casi si ribalterà


probabile...inoltre x adesso ke anke g80 può farlo è un ipotesi dato ke ancora nn gli si è visto sfruttare questa tecnica in nessuna applicazione...

...c'è anke da dire xò ke x quando usciranno applicazioni ke rikiederanno l'applicazione del'AA tramite shader c saranno già G92 ed R680/700...ciao

p.s.: io cmq son fiducioso ke riescano a trovare un metodo x applicare l'AA tramite le RBE (quindi speroando anke il problema sia solo SW e nn HW) xkè cmq l'HW dedicato pare esserci e nn capisco proprio xkè inei gioki attuali nn lo sfruttino...

MaRtH
30-06-2007, 11:58
probabile...inoltre x adesso ke anke g80 può farlo è un ipotesi dato ke ancora nn gli si è visto sfruttare questa tecnica in nessuna applicazione...

...c'è anke da dire xò ke x quando usciranno applicazioni ke rikiederanno l'applicazione del'AA tramite shader c saranno già G92 ed R680/700...ciao

p.s.: io cmq son fiducioso ke riescano a trovare un metodo x applicare l'AA tramite le RBE (quindi speroando anke il problema sia solo SW e nn HW) xkè cmq l'HW dedicato pare esserci e nn capisco proprio xkè inei gioki attuali nn lo sfruttino...


IMHO per la sua complessità...

+Lonewolf+
30-06-2007, 12:53
spero che deos testerà coj e altri titoloni...

gianni1879
30-06-2007, 13:58
per adesso ha testato il

3dmark 2005:
7.6 --> 16985
7.7b --> 17125


3dmark 2006
7.6 --> 12131
7.7b --> 12197


appena ha tempo testa un pò di game ;)

gianni1879
30-06-2007, 14:00
:mbe: mi hanno chiesto dei 7.6 e su quelli ho risposto...

Prendendo per affidabile il tizio in questione mi sembra che confermi quello che avevo gia' detto io, gli incrementi sono in applicativi open gl

affidabilissimo, fidati cecamente ;)

per adesso i 7.6 migliorano opengl e CF

certo sono stati provati pochi giochi, però...


dopo si vedranno con gli hotfix vediamo come vanno :)

Kharonte85
30-06-2007, 14:07
affidabilissimo, fidati cecamente ;)

per adesso i 7.6 migliorano opengl e CF

certo sono stati provati pochi giochi, però...


dopo si vedranno con gli hotfix vediamo come vanno :)

Ho notato adesso che sei moderatore in quel forum :D

Vedremo...:)

è un peccato che altri siti non ritengano opportuno rifare i test coi driver nuovi vista l'attenzione che c'è per la questione...

Free Gordon
30-06-2007, 14:11
:mbe: mi hanno chiesto dei 7.6 e su quelli ho risposto...
Prendendo per affidabile il tizio in questione mi sembra che confermi quello che avevo gia' detto io, gli incrementi sono in applicativi open gl

In quella pagina parlano dei 7.5, non dei 7.6 e successivi.
Gli incrementi sono sostanziosi, sia senza filtri che con filtri, in OGL (non come hai detto prima, solo senza filtri ;) ).

Kharonte85
30-06-2007, 14:13
In quella pagina parlano dei 7.5, non dei 7.6 e successivi.
Gli incrementi sono sostanziosi, sia senza filtri che con filtri, in OGL (non come hai detto prima, solo senza filtri ;) ).
Ma che dici? :mbe:

Guarda le pagine prima coi test...

Free Gordon
30-06-2007, 14:15
...c'è anke da dire xò ke x quando usciranno applicazioni ke rikiederanno l'applicazione del'AA tramite shader c saranno già G92 ed R680/700...ciao

Beh, non è nemmeno obbligatorio cambiare GPU ogni volta che ne esce una nuova/più veloce eh. ;)
Se uno spende 300 e passa euro per una GPU nel 2007, potrebbe anche volerla cambiare solo nel 2009, o persin dopo. ;)

MaRtH
30-06-2007, 14:16
Beh, non è nemmeno obbligatorio cambiare GPU ogni volta che ne esce una nuova/più veloce eh. ;)
Se uno spende 300 e passa euro per una GPU nel 2007, potrebbe anche volerla cambiare solo nel 2009, o persin dopo. ;)


Vero... ;)

Free Gordon
30-06-2007, 14:19
Ma che dici? :mbe:
Guarda le pagine prima coi test...

Mi riferivo a questo tuo post:


La verita' è che è cambiato poco... :ops2:
Final Thoughts
AMD’s ATI Radeon HD 2900 XT continues to see performance increases and it is clear that this month the driver team had their eye on improving OpenGL performance, which is great considering Enemy Territory is just around the corner.
The bad news is though that there are still no changes to AA tests and this is something that is hurting the HD 2900 XT at the moment. It manages to look impressive when you compare it to the Nvidia cards in non-AA tests (and as far as price is concerned) but as soon as you start to crank up the settings like AA and AF, it can begin to slump.
With all that said not everyone is an AA person - I have personally never used it and if you are the same, it would probably make the HD 2900 XT the better option especially when you consider the price versus performance ratio.
Hopefully the driver team dives into the AA issue in future releases but as always check out the full release notes and if you didn’t upgrade last month to the Catalyst 7.5 drivers, with the increase in OpenGL performance here, we would suggest the upgrade this month with the 7.6 version!
Until next month - happy gaming and benchmarking!


La verità invece è che è cambiato molto, anche con i filtri. ;)

ps.
sì, mi sono sbagliato sull'indicazione delle release, erano i 7.6 ;)

zorco
30-06-2007, 14:24
Beh, non è nemmeno obbligatorio cambiare GPU ogni volta che ne esce una nuova/più veloce eh. ;)
Se uno spende 300 e passa euro per una GPU nel 2007, potrebbe anche volerla cambiare solo nel 2009, o persin dopo. ;)
quoto è quello che farò io...

Kharonte85
30-06-2007, 14:29
sì, mi sono sbagliato sull'indicazione delle release, erano i 7.6 ;)
Ok...:mano:

Per il resto vedremo...loro non hanno notato miglioramenti con l'AA altri a quanto vedo si'...

Iantikas
30-06-2007, 14:36
Beh, non è nemmeno obbligatorio cambiare GPU ogni volta che ne esce una nuova/più veloce eh. ;)
Se uno spende 300 e passa euro per una GPU nel 2007, potrebbe anche volerla cambiare solo nel 2009, o persin dopo. ;)

se la skeda ke ha aquistato lo soddisferà anke in futuro è normale ke uno nn la cambierà...ma è un discorso soggettivo, dipende da come uno pretende d giocare e da ciò ke la skeda gli offre...

...se x es. tu t sei preso la hd2900xt x giocare in una certa maniera e intendi tenerla almeno 1/1,5 anni...se già tra 6 mesi nn ti permette d giocare in quella maniera se hai la possibilità la cambi altrimenti spari qualke bestemmia e te la tieni :D ...ciao

EDIT: io x es in questo periodo avrei voluto cambiare skeda video xkè la mia con gli ultimi titoli inzia a nn soddisfare + le mie esigenze ma nn l'ho fatto xkè ho ritenuto ke nessuna delle gpu attualmente in commercio mi possa garantire la longevità ke rikiedo...x es. quando presi la x1900xtx 16 mesi fa volevo ke x almeno un anno mi garantisse d giocare come dicevo io e l'ha fatto...ora vorrei lo stesso dalla porx ke aquisto ma ho molti dubbi ke x un anno lo possano fare e quindi passo e aspetto la prox generazione e tiro con la mia...

TecnoWorld8
30-06-2007, 14:41
se la skeda ke ha aquistato lo soddisferà anke in futuro è normale ke uno nn la cambierà...ma è un discorso soggettivo, dipende da come uno pretende d giocare e da ciò ke la skeda gli offre...

...se x es. tu t sei preso la hd2900xt x giocare in una certa maniera e intendi tenerla almeno 1/1,5 anni...se già tra 6 mesi nn ti permette d giocare in quella maniera se hai la possibilità la cambi altrimenti spari qualke bestemmia e te la tieni :D ...ciao

d'accordissimo; io ho acquistato la scheda in firma meno di un anno fa e come rapporto prestazioni/prezzo pagato sono soddisfattissimo, ma sinceramente sono in fervente attesa di una scheda davvero al top per cambiarla, perchè inizia a non consentirmi più di giocare al massimo dettaglio alla risoluzione nativa del mio monitor (1680x1050). Ho provato il demo di overlord, per esempio, e va tra i 20 ed i 30fps, con tutto al max e AA 2x.

zorco
30-06-2007, 14:43
...se x es. tu t sei preso la hd2900xt x giocare in una certa maniera e intendi tenerla almeno 1/1,5 anni...se già tra 6 mesi nn ti permette d giocare in quella maniera se hai la possibilità la cambi altrimenti spari qualke bestemmia e te la tieni :D ...ciao
http://www.pctuner.info/up/results/_200706/20070630153907_smilies88.gif se succederà saprò chi cercare e ti http://www.pctuner.info/up/results/_200706/20070630154248_raggio.gif

Defragg
30-06-2007, 14:46
http://www.pctuner.info/up/results/_200706/20070630153907_smilies88.gif se succederà saprò chi cercare e ti http://www.pctuner.info/up/results/_200706/20070630154248_raggio.gif

solo? :asd:

Iantikas
30-06-2007, 14:49
d'accordissimo; io ho acquistato la scheda in firma meno di un anno fa e come rapporto prestazioni/prezzo pagato sono soddisfattissimo, ma sinceramente sono in fervente attesa di una scheda davvero al top per cambiarla, perchè inizia a non consentirmi più di giocare al massimo dettaglio alla risoluzione nativa del mio monitor (1680x1050). Ho provato il demo di overlord, per esempio, e va tra i 20 ed i 30fps, con tutto al max e AA 2x.

idem..ankio ho un monitor con ris nativa d 1680x1050...ma solo gli ultimi titoli tipo R6V, DIRT, TDU mi hanno costretto ad abbassarla a 1280x960/800...un altra cosa ke nn mi ha spinto a cambiare è ke x es una hd2900xt già con dirt nn mi consentirebbe d sfruttare il mio monitor alla nativa cn filtri e dettagli al max...e nn me lo consentirebbe neanke con lost planet...

...magari son casi particolari ma magari no...e quindi aspetto gioki tipo cod4, biohock, crysis x vedere come si comporta, avere un quadro + kiaro e decidere allora cosa fare...

...ciao

Free Gordon
30-06-2007, 14:49
...se x es. tu t sei preso la hd2900xt x giocare in una certa maniera e intendi tenerla almeno 1/1,5 anni...se già tra 6 mesi nn ti permette d giocare in quella maniera se hai la possibilità la cambi altrimenti spari qualke bestemmia e te la tieni :D ...ciao


Il mio discorso era riferito al fatto che, la longevità di una scheda (e per cui la lungimiranza della sua architettura) non la vedi in 6 mesi. La vedi almeno in due anni (o più). ;)

Free Gordon
30-06-2007, 14:51
un altra cosa ke nn mi ha spinto a cambiare è ke x es una hd2900xt già con dirt nn mi consentirebbe d sfruttare il mio monitor alla nativa cn filtri e dettagli al max...e nn me lo consentirebbe neanke con lost planet...


Ma sei sicuro di ciò? :)
Io aspetterei un pò, a dirlo.

3DMark79
30-06-2007, 14:51
Il fatto di tenerla più a lungo possibile sono daccordissimo!:D
Il problema dei frame certo è importante e se vuole allungargli un pò la vita alla scheda dovrà scendere a compromessi.Un altro problema da non sottovalutare e la compatibilità degli shader!:muro: :mc:
Infatti se non era per quest'ultimo motivo mi sarei ancora tenuto la mia grande X800GTO2 che mi ha sempre regalato soddisfazioni sino a 1 mese fa e rullava bene a 1680x1050, adesso l'ho venduta.:(

TecnoWorld8
30-06-2007, 16:02
Ma sei sicuro di ciò? :)
Io aspetterei un pò, a dirlo.

per ora è così; DIRT con tutto al max, anche su HD2900xt non permetterebbe di certo la risoluzione di 1680x1050. Ed è un gioco uscito ora...cioè un mese dopo la scheda. sarà anche programmato male, ci mancherebbe, ma è inaccettabile che una scheda appena uscita non lo faccia girare al massimo.

Speriamo che aggiustino le cose con i drivers e che i giochi futuri siano programmati meglio, ma...io continuo a pensare ad R600 come una scheda che - prestazionalmente parlando - è di una generazione nata 7 mesi fa con G80. Sarò felice di essere smentito.

davide155
30-06-2007, 16:07
Infatti se non era per quest'ultimo motivo mi sarei ancora tenuto la mia grande X800GTO2 che mi ha sempre regalato soddisfazioni sino a 1 mese fa e rullava bene a 1680x1050, adesso l'ho venduta.:(

Se per rullava bene intendi 2fps allora si :)
A 1680x1050 manca poco arranca pure una 8800gtx........figuriamoci se rulla bene una x800:mbe:

TecnoWorld8
30-06-2007, 16:10
Se per rullava bene intendi 2fps allora si :)
A 1680x1050 manca poco arranca pure una 8800gtx........figuriamoci se rulla bene una x800:mbe:

questo dimostra che tutto è relativo :)

a parte gli scherzi, con la scheda in sign gioco a quella risoluzione con alto frame rate con tomb raider anniversary, i giochi basati su doom3 usciti sinora, quelli basati sul source e tanti altri. NON gioco bene a stalker, oblivion, l'ultimo test drive, DIRT e overlord, sempre parlando di dettagli al max...

Iantikas
30-06-2007, 16:20
Ma sei sicuro di ciò? :)
Io aspetterei un pò, a dirlo.

ORA nn permette d farlo e SONO SICURO D CIO' (t basterebbe informarti proprio da ki ha la skeda x esserlo anke tu)...

...QUANDO permetterà d farlo e SE permetterà d farlo ne riparleremo ma sicuramente l'avrò già finto (sia dirt ke lost planet) e starò giocando un altro gioco (probabilmente ancora + pesante)...

...ciao

davide155
30-06-2007, 16:23
questo dimostra che tutto è relativo :)

a parte gli scherzi, con la scheda in sign gioco a quella risoluzione con alto frame rate con tomb raider anniversary, i giochi basati su doom3 usciti sinora, quelli basati sul source e tanti altri. NON gioco bene a stalker, oblivion, l'ultimo test drive, DIRT e overlord, sempre parlando di dettagli al max...

Si pure io sono in condizioni simili.......ma ormai tiro avanti fino a settembre-ottobre......poi si deciderà il da farsi.

Athlon 64 3000+
30-06-2007, 16:26
per ora è così; DIRT con tutto al max, anche su HD2900xt non permetterebbe di certo la risoluzione di 1680x1050. Ed è un gioco uscito ora...cioè un mese dopo la scheda. sarà anche programmato male, ci mancherebbe, ma è inaccettabile che una scheda appena uscita non lo faccia girare al massimo.

Speriamo che aggiustino le cose con i drivers e che i giochi futuri siano programmati meglio, ma...io continuo a pensare ad R600 come una scheda che - prestazionalmente parlando - è di una generazione nata 7 mesi fa con G80. Sarò felice di essere smentito.

Prendere Dirt come esempio per far vedere gia vecchia la hd 2900xt non è sensato perchè lo considero insieme a Neverwinternights uno dei giochi peggio programmati degli ultimi anni e per questo motivo che dopo aver provato la demo ho deciso di non comprare.
E per favore non mi trovate giustificazione su un tale gioco perchè il fatto che giri male anche con una 8800 significa che è stato ottimizzato da cani.
:mad:

TecnoWorld8
30-06-2007, 16:30
Prendere Dirt come esempio per far vedere gia vecchia la hd 2900xt non è sensato perchè lo considero insieme a Neverwinternights uno dei giochi peggio programmati degli ultimi anni e per questo motivo che dopo aver provato la demo ho deciso di non comprare.
E per favore non mi trovate giustificazione su un tale gioco perchè il fatto che giri male anche con una 8800 significa che è stato ottimizzato da cani.
:mad:

ci mancherebbe; però mi pare che anche CoJ e Lost Planet, almeno da quello che ho visto in rete, arranchino già a 1280x1024...quello che voglio dire è solo che entrambe le architetture (G80 ed R600) non sono quello che io personalmente vorrei ora. l'ho sempre detto che vorrei una scheda che non esiste :)

+Lonewolf+
30-06-2007, 16:52
ci mancherebbe; però mi pare che anche CoJ e Lost Planet, almeno da quello che ho visto in rete, arranchino già a 1280x1024...quello che voglio dire è solo che entrambe le architetture (G80 ed R600) non sono quello che io personalmente vorrei ora. l'ho sempre detto che vorrei una scheda che non esiste :)

in coj la 2900 ha un netto vantaggio con i 7.7.beta...poi il test è buggatissimo...

LP poi è + nvidia della 8800 :asd:

DVD2005
30-06-2007, 17:05
7.5

nessun miglioramento prestazionale

qualche miglioramento in compatibilità SO

aggiunta compatibilità directx 10

7.6

risolti numerosi bug su vista e xp

risolti i problemi del crossfire(anche se non rende ancora al meglio)

aggiunta gestione dinamica della venrola con relativa diminuzione del rumore in fasi poco "calde"

aggiunte funzioni di spegnimento aree gpu inutilizzate e relativi risparmi energetici

aggiunte funzioni di aumento/diminuzione voltaggi per 3d/2d

miglioramenti sostanziossissimi in OPEN GL con superamento della gts anche là

miglioramenti all'engine valve con utilizzo HDR


7.7 beta (hotfix 7.6)

sostanziosi miglioramenti performance un po' ovunque, specialmente con i filtri attivati grazie ad una programmazione migliore(ma non ancora ottimale) del ring bus

la vga sfrutta meglio i 512 bit di bus(ma haimè non ancora al meglio)

risolti i bug di LP(ma nn và l'AA altrimenti crash, stessa cosa x le ombre alte...tutto sommato ci si gioca benone)

risolti i bug di altri giochi quali r6vegas,coj,scda(che già andava alla grande adesso è una roccia)ecc..

prestazioni al bench di coj passate da 32fpsAVG a 36AVG(ne si deducono relativi miglioramenti all'architettura dx10), anche con i filtri ottimi results(MSAA 4x 28fps)

risolti i cali di prestazioni improvvisi

il resto non lo sa ma le prestazioni hanno avuto un bell aumento...




purtroppo per il mio SO64 bit non ci sn ancora...appena escono li provo e posto results + dettagliati


Grazie mille ;)

3DMark79
30-06-2007, 17:16
Se per rullava bene intendi 2fps allora si :)
A 1680x1050 manca poco arranca pure una 8800gtx........figuriamoci se rulla bene una x800:mbe:

Ti posso dire che a Test Driver Unlimited riuscivo a giocare discretamente se non sbaglio a 1680x1050 AA2x e dettagli medi GTO2 clocckata a 520 core e 590 memoria.
Infernal,Virtual Tennis 3, Act of War,GTR2 tutto al MAX.Stalker se non erro non mettendo l'illuminazione dinamica riuscivo a giocare mi pare anche a 1680x1050 credimi non sto dicendo fesserie!
Gli ultimissimi giochi ovviamente non so che dirti!
Cmq posso dirti che mi ha anche aiutato il mio sistema in firma visto che montata adesso da mio cugino in un Athlon64 3000+ con 2GB RAM e i frame sono un pò calati.

Chief
30-06-2007, 17:23
ci mancherebbe; però mi pare che anche CoJ e Lost Planet, almeno da quello che ho visto in rete, arranchino già a 1280x1024...quello che voglio dire è solo che entrambe le architetture (G80 ed R600) non sono quello che io personalmente vorrei ora. l'ho sempre detto che vorrei una scheda che non esiste :)

Se parli di coj dx10 con gli hotfix c'è stato un miglioramento dai 32 fps che facevo ai 35.5 so che è poco ma ti ricordo che ci stanno lavorando ancora sui driver...se invece parli del gioco dx9 va alla grande con tutto alto ottengo picchi di 120 fps ;)
RIcordo inoltre che gli hotfix correggono Lost PLanet in dx10 tranne l'attivizione della AA e Ombre alte il gioco scorre benisssimo...Si vede perfettamente che ci stanno lavorando e ricordo ancora che siamo diciamoci la verità alla prima release(Con i 7.5 hanno implementato solo i driver nel pacchetto ati ufficiale gia con i 7.6 cambia un po la storia ma gli hotfix vanno ancora meglio :))

davide155
30-06-2007, 18:10
Ti posso dire che a Test Driver Unlimited riuscivo a giocare discretamente se non sbaglio a 1680x1050 AA2x e dettagli medi GTO2 clocckata a 520 core e 590 memoria.
Infernal,Virtual Tennis 3, Act of War,GTR2 tutto al MAX.Stalker se non erro non mettendo l'illuminazione dinamica riuscivo a giocare mi pare anche a 1680x1050 credimi non sto dicendo fesserie!
Gli ultimissimi giochi ovviamente non so che dirti!
Cmq posso dirti che mi ha anche aiutato il mio sistema in firma visto che montata adesso da mio cugino in un Athlon64 3000+ con 2GB RAM e i frame sono un pò calati.
Con stalker è impossibile.
Anche togliendo l'illuminazione dinamica :O

3DMark79
30-06-2007, 18:44
Con stalker è impossibile.
Anche togliendo l'illuminazione dinamica :O

Mi spiace non poterla più avere se no ti dicevo con esattezza come lo impostavo per giocare discretamente!
Volevo farti una domanda o se qualcuno può aiutarmi (un attimo fuori OT viste le non numerose risp. dove ho postato sugli Ali).Devo prendere uno degli Ali in firma soprattutto mi vorrei orientare nei Silverstone visto la disponibilità.
Perso sia buona come marca no?
Il 1° lo strider 560W a 100Euro il 2° Zeus 650W a 120Euro per probabile Hd 2900XT quale mi consigliate?
Grazie in anticipo e buon sabato sera! ;)

Iantikas
30-06-2007, 19:36
Mi spiace non poterla più avere se no ti dicevo con esattezza come lo impostavo per giocare discretamente!
Volevo farti una domanda o se qualcuno può aiutarmi (un attimo fuori OT viste le non numerose risp. dove ho postato sugli Ali).Devo prendere uno degli Ali in firma soprattutto mi vorrei orientare nei Silverstone visto la disponibilità.
Perso sia buona come marca no?
Il 1° lo strider 560W a 100Euro il 2° Zeus 650W a 120Euro per probabile Hd 2900XT quale mi consigliate?
Grazie in anticipo e buon sabato sera! ;)

i due modelli della silverstone d cui parli son abb vekkioti...tra i tre ke tieni in firma sicuramente l'HX520W...

...cmq potendo spendere 100€ o giù d li mi orienterei verso modelli + recenti con magari un paio di connettori 8pin pci-e oltre ai 6pin pci-e x nn dover sin da subito utilizzare adattatori (la Corsair manda gratuitamente il cavo 8pin ma solo a ki sta nel nord america...è un pò cmq ke n mi aggiorno forse è possibile rikiederlo in tutto il mondo ora)...ciao

DakmorNoland
30-06-2007, 19:42
Mi spiace non poterla più avere se no ti dicevo con esattezza come lo impostavo per giocare discretamente!
Volevo farti una domanda o se qualcuno può aiutarmi (un attimo fuori OT viste le non numerose risp. dove ho postato sugli Ali).Devo prendere uno degli Ali in firma soprattutto mi vorrei orientare nei Silverstone visto la disponibilità.
Perso sia buona come marca no?
Il 1° lo strider 560W a 100Euro il 2° Zeus 650W a 120Euro per probabile Hd 2900XT quale mi consigliate?
Grazie in anticipo e buon sabato sera! ;)

Sì i silverstone sono ottimi, quindi lo zeus 650W dovrebbe essere ok.

Però adesso si trova l'OCZ Gamexstream 600W (Fortron Epsilon rimarchiato) a soli 95-100€. Come qualità sono li. Anche come amperaggi sui +12V. Valuta te quale trovi....

Più che altro guardo come sono messi a silenziosità i silverstone. Il gamexstream a me è sembrato molto silenzioso e ho letto diverse rece che lo confermano. Anche se c'è qualcuno che sostiene sia rumoroso, che francamente mi sembra una cavolata grossa come una casa...

+Lonewolf+
30-06-2007, 22:44
puoi prendere anche ul enermax liberty 500w oppure meglio 620 che ha anche in boundle l'8 pin...

cmq confermo che stalker togliendo l'illuminazione dinamica era giocabile anche su una 9250

davide155
30-06-2007, 23:06
cmq confermo che stalker togliendo l'illuminazione dinamica era giocabile anche su una 9250

Ma solo a me stalker andava maluccio?

TecnoWorld8
30-06-2007, 23:07
Ma solo a me stalker andava maluccio?

sulla mia scheda, con tutto al max, faceva tra i 20 ed i 25fps a 1280 e ben meno a 1680...

davide155
30-06-2007, 23:17
320€ nuova su negozio ebay.........interessante.........
Questo vuol dire che per settembre ottobre la si trova facilmente sui 300€....se non di meno :oink:

TecnoWorld8
30-06-2007, 23:21
320€ nuova su negozio ebay.........interessante.........
Questo vuol dire che per settembre ottobre la si trova facilmente sui 300€....se non di meno :oink:

a 300€ o meno potrebbe essere interessante. sarebbe il valore giusto, considerandone il consumo, secondo me.

davide155
30-06-2007, 23:23
a 300€ o meno potrebbe essere interessante. sarebbe il valore giusto, considerandone il consumo, secondo me.

E' si.....
A trovarla sui 280€ verso settembre all'uscita di crysis non sarebbe affatto male.

Ma aspettiamo....vediamo il mercato cosa ci fornisce in quei periodi :O

Iantikas
30-06-2007, 23:39
Ma solo a me stalker andava maluccio?

stalker è uno dei poki gioki dove 512mb (o anke +) d ram fanno la differenza...@1680x1050 tutto al max occupa 512mb di memoria video on-board e altri 200mb d memoria video nn-locale...

...ciao

Nos89
30-06-2007, 23:48
puoi prendere anche ul enermax liberty 500w oppure meglio 620 che ha anche in boundle l'8 pin...

cmq confermo che stalker togliendo l'illuminazione dinamica era giocabile anche su una 9250

anche il 500w adesso ha il cavo a 8 Pin:)

+Lonewolf+
30-06-2007, 23:59
anche il 500w adesso ha il cavo a 8 Pin:)

si m sn espresso male, a me è uscito

+Lonewolf+
30-06-2007, 23:59
a 300€ o meno potrebbe essere interessante. sarebbe il valore giusto, considerandone il consumo, secondo me.

considerando le prestazioni xò è molto conveniente

Defragg
01-07-2007, 00:00
cmq confermo che stalker togliendo l'illuminazione dinamica era giocabile anche su una 9250

:mbe:

a 320x240, forse...ma senza nemmeno i filtri attivi :asd:
tra l'altro l'illuminazione dinamica con una 9250 non la puoi abilitare, solo quella statica ;)

+Lonewolf+
01-07-2007, 00:01
:mbe:

a 320x240, forse...ma senza nemmeno i filtri attivi :asd:
tra l'altro l'illuminazione dinamica con una 9250 non la puoi abilitare, solo quella statica ;)

si infatti, senza io l'ho provato e ti assicuro che andava tutto medio a 1024, senza ombre e filtri naturalmente...dopotutto senzailluminazione dinamica=directx8

nitro89
01-07-2007, 00:08
Ragazzi,che basti per questa scheda un Enermax Noisetaker II da 485w,con 2 linee da 22A?

Nos89
01-07-2007, 00:17
Ragazzi,che basti per questa scheda un Enermax Noisetaker II da 485w,con 2 linee da 22A?

si:)

+Lonewolf+
01-07-2007, 00:20
Ragazzi,che basti per questa scheda un Enermax Noisetaker II da 485w,con 2 linee da 22A?

che altro ci vuoi mettere?

nitro89
01-07-2007, 00:22
asus p5k\p5b,2gb ram twinmos,2 hd,1 masterizz,e4300\e6320@3ghz ;)

Nos89
01-07-2007, 00:22
asus p5k\p5b,2gb ram twinmos,2 hd,1 masterizz,e4300\e6320@3ghz ;)

basta:p

Free Gordon
01-07-2007, 00:23
per ora è così; DIRT con tutto al max, anche su HD2900xt non permetterebbe di certo la risoluzione di 1680x1050. Ed è un gioco uscito ora...cioè un mese dopo la scheda. sarà anche programmato male, ci mancherebbe, ma è inaccettabile che una scheda appena uscita non lo faccia girare al massimo.


Perchè, attualmente esiste una scheda che lo faccia girare bene? :)

Free Gordon
01-07-2007, 00:27
Con stalker è impossibile.
Anche togliendo l'illuminazione dinamica :O

Senza ill dinamica sulla mia scheda Stalker vola a praticamente qualsiasi risoluzione.. ;)

+Lonewolf+
01-07-2007, 00:27
Perchè, attualmente esiste una scheda che lo faccia girare bene? :)

rispondo io...no, e la 2900 anzi è una di quelle che lo fa girare meglio, o sbaglio

35fps medi a 1280 mi pare un buon traguardo per un gioco ottimizzato col culo:D

+Lonewolf+
01-07-2007, 00:29
Senza ill dinamica sulla mia scheda Stalker vola a praticamente qualsiasi risoluzione.. ;)

pensa che gira sulle 9250, figuriamoci sulla tua:sofico:

wiltord
01-07-2007, 00:30
Perchè, attualmente esiste una scheda che lo faccia girare bene? :)

a me gira bene e mi ci sto anche divertendo :D

+Lonewolf+
01-07-2007, 00:32
a me gira bene e mi ci sto anche divertendo :D

si, si intendeva a 1680 x nonsoquanto con tutto + filtri...:D

com'è la giocabilità sec te? io ho provato la demo ma nn mi ha esaltato

Free Gordon
01-07-2007, 00:32
rispondo io...no, e la 2900 anzi è una di quelle che lo fa girare meglio, o sbaglio
35fps medi a 1280 mi pare un buon traguardo per un gioco ottimizzato col culo:D


Quello che voglio dire è che se un gioco, @1280x960, gira male su queste schede, non è colpa delle schede o dei driver... ma del gioco stesso. ;)

Probabilmente hanno curato solo la vers console, la conversione per pc l'hanno data da fare a team esterni e nel giro di due mesi.. :asd:

Al di là delle battute, è davvero ottimizzato male se sulle nuove schede, balbetta a 1280..

+Lonewolf+
01-07-2007, 00:33
Quello che voglio dire è che se un gioco, @1280x960, gira male su queste schede, non è colpa delle schede o dei driver... ma del gioco stesso. ;)

Probabilmente hanno curato solo la vers console, la conversione per pc l'hanno data da fare a team esterni e nel giro di due mesi.. :asd:

Al di là delle battute, è davvero ottimizzato male se sulle nuove schede, balbetta a 1280..

quoto...i giochi veramente ben ottimizzati sn stati pochi...me ne viene in mente 1, prey, veramente bene...ci giocavo con i filtri sulla 1600 pro

Free Gordon
01-07-2007, 00:34
a me gira bene e mi ci sto anche divertendo :D

Anche io su 360 lo gioco in modo fluido (30fps), ma parlavo di setting un pò diversi.. :D

wiltord
01-07-2007, 00:38
si, si intendeva a 1680 x nonsoquanto con tutto + filtri...:D

com'è la giocabilità sec te? io ho provato la demo ma nn mi ha esaltato

a me piace, è un giochino divertente e poco impegnativo, grafica molto molto buona, un passatempo come piace a me. che poi sia arcade etc. non si discute.

Anche io su 360 lo gioco in modo fluido (30fps), ma parlavo di setting un pò diversi.. :D

dopo varie prove ecco come mi gira perfettamente, senza alcun tentennamento:

RISOLUZIONE 1440*990
REFRESH 75
RAPPORTO 16:10
GAMMA 1.0
V-SYNC OFF
MULTISAMPLING 2X
EFFETTI DEL VENTO ON
OMBRE ALTO
EFFETTI SPECIALI ULTRA
SPECCHI ON
PUBBLICO ALTO
FOGLIAME ALTO
MODELLI DI DRIVER ALTO
ALBERI ALTO
RIFLESSI ULTRA
EFFETTO SFUMATO ON
SEGNI DELLE RUOTE ON

sistema operativo: Win Vista 32
versione driver: Cata 7.5

ciao :)

gorge91
01-07-2007, 00:43
ma adesso che è uscito lost planet completo, non esistono testi di confronto tra le varie schede dx10?

non ho letto le pag precedenti, se è già stato detto non uccidetemi :fagiano:

3DMark79
01-07-2007, 02:04
Grazie ragazzi, veramente gentilissimi!:angel:
Dunque mi rimane un pò di indecisione visto che questi Silverstone sono un pò vecchiotti e non hanno neanche il cavo a 8 pin come già sapevo!:muro:
Cercherò in giro qualcos'altro tanto ho tempo ed ancora sono indeciso per la HD2900.
Vi farò sapere.

Free Gordon
01-07-2007, 04:15
dopo varie prove ecco come mi gira perfettamente, senza alcun tentennamento:
sistema operativo: Win Vista 32
versione driver: Cata 7.5
ciao :)

Ottimi risultati, i setting (res a parte) sono pressappoco quelli console (dove è settato tutto su ALTO), a parte l'MSAA che su 360 è a 4x.

Ma a 1440x900 stai più o meno sempre sui 30fps? :confused: Hai controllato con FRAPS?
Allora in questo gioco c'è davvero molta differenza fra R520 e R580...

~Mr.PartyHut~
01-07-2007, 08:23
a me piace, è un giochino divertente e poco impegnativo, grafica molto molto buona, un passatempo come piace a me. che poi sia arcade etc. non si discute.

dopo varie prove ecco come mi gira perfettamente, senza alcun tentennamento:

sistema operativo: Win Vista 32
versione driver: Cata 7.5

ciao :)
hehe dai, le nostre X1900XT reggono ancora il colpo :D
Dopo DiRT però, non pretendo più niente dalla mia VGA :asd: (sarebbe chiedere troppo)

M4R1|<
01-07-2007, 08:52
hehe dai, le nostre X1900XT reggono ancora il colpo :D
Dopo DiRT però, non pretendo più niente dalla mia VGA :asd: (sarebbe chiedere troppo)

si ma trovare qualcosa più pesnte di DiRT, in tempi brevi è molto difficile :D

davide155
01-07-2007, 09:12
si ma trovare qualcosa più pesnte di DiRT, in tempi brevi è molto difficile :D

Bioshock ad agosto......non manca molto :)
E sfrutterà pure alcuni effetti delle dx10, quindi se le vga dx10 di adesso si comporteranno con tale gioco, come fanno con call of juarez, oppure con lost planet siamo a cavallo :rolleyes:

zorco
01-07-2007, 09:17
Bioshock ad agosto......non manca molto :)
E sfrutterà pure alcuni effetti delle dx10, quindi se le vga dx10 di adesso si comporteranno con tale gioco, come fanno con call of juarez, oppure con lost planet siamo a cavallo :rolleyes:
andranno bene http://www.pctuner.info/up/results/_200707/20070701101507_smilies88.gif non ti ci mettere anche tù,call of juarez e lost planet sono ottimizzati a cazzo di can...

A.L.M.
01-07-2007, 09:20
Bioshock ad agosto......non manca molto :)
E sfrutterà pure alcuni effetti delle dx10, quindi se le vga dx10 di adesso si comporteranno con tale gioco, come fanno con call of juarez, oppure con lost planet siamo a cavallo :rolleyes:

Secondo me c'è un po' di confusione sulle prestazioni dei giochi DX10...
Le demo/bench visti finora non sono i giochi veri. Da quanto ho letto le 8800 fanno almeno 10fps in più in CoJ vero patchato DX10, rispetto al bench. E lo stesso, come minimo, mi aspetto da R600. Già in questi giochi, che usano le DX10 solo per aggiungere effetti, ma non ne sfruttano le capacità di riduzione dell'overhead, mi pare di capire che la differenza di fps tra path DX9 e DX10 sia inferiore ai 10fps. :)

davide155
01-07-2007, 09:26
andranno bene http://www.pctuner.info/up/results/_200707/20070701101507_smilies88.gif non ti ci mettere anche tù,call of juarez e lost planet sono ottimizzati a cazzo di can...
:asd:
Secondo me c'è un po' di confusione sulle prestazioni dei giochi DX10...
Le demo/bench visti finora non sono i giochi veri. Da quanto ho letto le 8800 fanno almeno 10fps in più in CoJ vero patchato DX10, rispetto al bench. E lo stesso, come minimo, mi aspetto da R600. Già in questi giochi, che usano le DX10 solo per aggiungere effetti, ma non ne sfruttano le capacità di riduzione dell'overhead, mi pare di capire che la differenza di fps tra path DX9 e DX10 sia inferiore ai 10fps. :)
Ma io mi chiedo......se questi giochi segnano 25fps a 1280 senza filtri.....ed usano SOLO qualche effetto.

Che fine faranno queste benedette schede con veri giochi con codice interamente dx10?
Segneranno 2fps?

-Feanor-
01-07-2007, 09:44
Secondo me c'è un po' di confusione sulle prestazioni dei giochi DX10...
Le demo/bench visti finora non sono i giochi veri. Da quanto ho letto le 8800 fanno almeno 10fps in più in CoJ vero patchato DX10, rispetto al bench. E lo stesso, come minimo, mi aspetto da R600. Già in questi giochi, che usano le DX10 solo per aggiungere effetti, ma non ne sfruttano le capacità di riduzione dell'overhead, mi pare di capire che la differenza di fps tra path DX9 e DX10 sia inferiore ai 10fps. :)

a tale proposito ho letto su GMC di qst mese una importante conferma a un interrogativo che mi tormentava da un po...:sofico: ...mentre parla di lp dice proprio di ricordarsi che a parita di resa grafica le dx10 dovrebbero generare un frame rate maggiore rispetto alle dx9...in quanto vengono sfruttati geometry shaders e streaming diretto...

Defragg
01-07-2007, 09:54
Allora in questo gioco c'è davvero molta differenza fra R520 e R580...

sfrutterà a manetta il pixel shading...

A.L.M.
01-07-2007, 10:03
:asd:

Ma io mi chiedo......se questi giochi segnano 25fps a 1280 senza filtri.....ed usano SOLO qualche effetto.

Che fine faranno queste benedette schede con veri giochi con codice interamente dx10?
Segneranno 2fps?

Guarda che con gli ultimi drivers a 1280x1024 R600 a CoJ DX10 bench fa 35 fps. ;)
La prestazione nel gioco patchato DX10 (non il bench) dovrebbe essere di circa 10fps in più. Un sito ha testato una 8800GTX.
STALKER è l'esempio di come possa girare male un motore DX7/8 con effetti DX9 SM3 appiccicati sopra. La stessa cosa dicasi per questi giochi patchati. Comunque queste sono le prestazioni di CoH DX10, per esempio.

http://techarp.com/review/ATI/Radeon_HD_2900XT/coh_directx10_comparison.png

E secondo me i drivers hanno (sia per ATi che per nVidia) parecchio da dire ancora.

Tidus.hw
01-07-2007, 10:03
:asd:

Ma io mi chiedo......se questi giochi segnano 25fps a 1280 senza filtri.....ed usano SOLO qualche effetto.

Che fine faranno queste benedette schede con veri giochi con codice interamente dx10?
Segneranno 2fps?

beh, crysis credo sia decisamente meglio ottimizzato di questi abbozzi di giochi dx10 :asd:
io starei tranquillo.

A.L.M.
01-07-2007, 10:07
a tale proposito ho letto su GMC di qst mese una importante conferma a un interrogativo che mi tormentava da un po...:sofico: ...mentre parla di lp dice proprio di ricordarsi che a parita di resa grafica le dx10 dovrebbero generare un frame rate maggiore rispetto alle dx9...in quanto vengono sfruttati geometry shaders e streaming diretto...

Più che altro quella è la teoria. Giochi DX10 che usano i GS in maniera intensiva non ce ne saranno probabilmente almeno per un annetto buono (forse proprio per il fatto che le nVidia hanno quel problema di cui più volte abbiamo discusso).
Comunque il path DX10 avrà più effetti e dettagli, uno su tutti (finalmente) l'uso estensivo del parallax occlusion mapping (che finora si era visto solo nei techdemo ATi DX9), quindi comunque saranno un po' più pesanti del path DX9.

davide155
01-07-2007, 10:07
beh, crysis credo sia decisamente meglio ottimizzato di questi abbozzi di giochi dx10 :asd:
io starei tranquillo.

Ma sfrutta solo un paio di effett in dx10 :O

Io parlo proprio di giochi dx10 compilant al 100%......

Queste schede saranno inginocchiate a chiedere pietà.
Come fa adesso una x1900xt con dirt.....

Cmq è vero anche che quando ci saranno questi giochi (2008) ci saranno ben altre vga ;)

davide155
01-07-2007, 10:09
Più che altro quella è la teoria. Giochi DX10 che usano i GS in maniera intensiva non ce ne saranno probabilmente almeno per un annetto buono (forse proprio per il fatto che le nVidia hanno quel problema di cui più volte abbiamo discusso).
Comunque il path DX10 avrà più effetti e dettagli, uno su tutti (finalmente) l'uso estensivo del parallax occlusion mapping (che finora si era visto solo nei techdemo ATi DX9), quindi comunque saranno un po' più pesanti del path DX9.

Il parallax.......:sbav:........uno degli effetti più belli!

Speriamo lo usino con per bene nei giochi futuri.
In crysis mi sembra già di averlo visto sui muri mattonellati.......

Defragg
01-07-2007, 10:15
Il parallax.......:sbav:........uno degli effetti più belli!

Speriamo lo usino con per bene nei giochi futuri.
In crysis mi sembra già di averlo visto sui muri mattonellati.......

In Crysis è usato per il terreno anche :O

davide155
01-07-2007, 10:21
In Crysis è usato per il terreno anche :O

:mbe:
Sei sicuro?

Tidus.hw
01-07-2007, 10:25
Ma sfrutta solo un paio di effett in dx10 :O

Io parlo proprio di giochi dx10 compilant al 100%......

Queste schede saranno inginocchiate a chiedere pietà.
Come fa adesso una x1900xt con dirt.....

Cmq è vero anche che quando ci saranno questi giochi (2008) ci saranno ben altre vga ;)

eh vabbe', ce ne vorra' di tempo... dalla 9700pro son passate 3 generazioni di schede video prima di vedere giochi full dx9 :asd:

gorge91
01-07-2007, 10:26
ma adesso che è uscito lost planet completo, non esistono testi di confronto tra le varie schede dx10?

non ho letto le pag precedenti, se è già stato detto non uccidetemi :fagiano:

up :stordita:

davide155
01-07-2007, 11:11
eh vabbe', ce ne vorra' di tempo... dalla 9700pro son passate 3 generazioni di schede video prima di vedere giochi full dx9 :asd:

Si infatti........

Defragg
01-07-2007, 11:24
:mbe:
Sei sicuro?

http://www.bit-tech.net/content_images/roy_taylor_interview_twimtbp_dx10/crysis5.jpg

si :)

http://www.bit-tech.net/bits/2007/06/26/roy_taylor_interview_twimtbp_dx10/6

-Feanor-
01-07-2007, 12:15
ragazzi se avete voglia date un occhiata a questa video recensione in italiano http://www.youtube.com/watch?v=N5kZBdseCco ....niente di nuovo ma cmq interessante...apparte il tipo che sbaglia un po di accenti....:asd:...o magari li sbaglio io....:stordita:

M4R1|<
01-07-2007, 12:21
Guarda che con gli ultimi drivers a 1280x1024 R600 a CoJ DX10 bench fa 35 fps. ;)
La prestazione nel gioco patchato DX10 (non il bench) dovrebbe essere di circa 10fps in più. Un sito ha testato una 8800GTX.
STALKER è l'esempio di come possa girare male un motore DX7/8 con effetti DX9 SM3 appiccicati sopra. La stessa cosa dicasi per questi giochi patchati. Comunque queste sono le prestazioni di CoH DX10, per esempio.

http://techarp.com/review/ATI/Radeon_HD_2900XT/coh_directx10_comparison.png

E secondo me i drivers hanno (sia per ATi che per nVidia) parecchio da dire ancora.

be se le cose continuano così sono MOLTO contento :D :D

webbuffa
01-07-2007, 12:24
be se le cose continuano così sono MOLTO contento :D :D

:p Dai che le nostre previsioni si stanno avverando!!

Nos89
01-07-2007, 12:44
cmq sti mezzi giochi DX10 di cui delle sudette librerie hanno solo il nome non mi interessano....piuttosto sarebbe bello sapere quando esce un gioco DX10 serio e non LostPlanet:mbe:

Iantikas
01-07-2007, 12:50
cmq sti mezzi giochi DX10 di cui delle sudette librerie hanno solo il nome non mi interessano....piuttosto sarebbe bello sapere quando esce un gioco DX10 serio e non LostPlanet:mbe:

Crysis, ke dovrebbe uscire a novembre...cmq anke bioshock, ke invece dovrebbe uscire già ad Agosto, è DX10...

...poi c'è Alan Wake e pare ke anke CoD4 sfrutterà le DX10...ciao

Nos89
01-07-2007, 12:53
Crysis, ke dovrebbe uscire a novembre...cmq anke bioshock, ke invece dovrebbe uscire già ad Agosto, è DX10...

...poi c'è Alan Wake e pare ke anke CoD4 sfrutterà le DX10...ciao

gia ma sti maledetti mi hanno scocciato ci stanno mettendo troppo tempo.....sono stufo di aspettare e anche il mio G80(sempre se poi ce la fa:D ).......quindi il primo in uscita è Bioshok? che genere è FPS?

M4R1|<
01-07-2007, 12:55
:p Dai che le nostre previsioni si stanno avverando!!

credo che tu sappia quanto io lo spero :D ;)

-Feanor-
01-07-2007, 12:56
non finirò piu di postarla ragazzi.....:rolleyes:
List of games with DirectX 10 support (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support)
in effetti l'unico che manca è cod4 ma dovrebbe essere almeno in parte dx10...cmq niente di ufficiale...

gorge91
01-07-2007, 13:02
non finirò piu di postarla ragazzi.....:rolleyes:
List of games with DirectX 10 support (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support)
in effetti l'unico che manca è cod4 ma dovrebbe essere almeno in parte dx10...cmq niente di ufficiale...

ma quindi graw2 è uscito?ed è in dx10?:confused:

A.L.M.
01-07-2007, 13:02
Crysis, ke dovrebbe uscire a novembre...cmq anke bioshock, ke invece dovrebbe uscire già ad Agosto, è DX10...

...poi c'è Alan Wake e pare ke anke CoD4 sfrutterà le DX10...ciao

Alan Wake è stato postposto al 2008, comunque qui (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support) c'è la lista. ;)
EDIT: già postata... :p

gia ma sti maledetti mi hanno scocciato ci stanno mettendo troppo tempo.....sono stufo di aspettare e anche il mio G80(sempre se poi ce la fa:D ).......quindi il primo in uscita è Bioshok? che genere è FPS?

FPS horror (ma non troppo) "psicologico", con elementi di RPG ed emergent gameplay.
http://en.wikipedia.org/wiki/BioShock

-Feanor-
01-07-2007, 13:05
ma quindi graw2 è uscito?ed è in dx10?:confused:

graw2 è gia uscito x xbox360...ma per pc dovrebbe uscire il 12 luglio...:O ...salvo ulteriori ritardi sia ben chiaro...;)

Defragg
01-07-2007, 13:08
ed è in dx10?:confused:

no

Murphy
01-07-2007, 13:13
a graw2 sto giocando alla demo multy!

cmq molto uguale al suo predecessore.

davide155
01-07-2007, 13:32
http://www.bit-tech.net/content_images/roy_taylor_interview_twimtbp_dx10/crysis5.jpg

si :)

http://www.bit-tech.net/bits/2007/06/26/roy_taylor_interview_twimtbp_dx10/6

E' vero hai ragione.
Non ricordavo.
Chissà perchè mi veniva in mente solo il terreno piatto che si vede nei video :stordita:

-Feanor-
01-07-2007, 13:36
E' vero hai ragione.
Non ricordavo.
Chissà perchè mi veniva in mente solo il terreno piatto che si vede nei video :stordita:

nel video di presentazione del cryengine 2 al gdc07 invece si vede benissimo il parallax...;)
EDIT: te lo linko in HD http://www.gametrailers.com/player/18588.html?type=flv ...;)

davide155
01-07-2007, 13:44
Scusate ragazzi, ma quelle scene che si vedono spesso nei video sulla 2900xt....

Dove c'è uno che si fa riprendere dalla web-cam e l'immagine viene costruita dalla vga attraverso tanti pezzetti (quadratini?)......

I possessori di questa vga ci possono riuscire attraverso un programma in bundle con la scheda?
Oppure è un programmino segreto atto a far vedere solo questa cosa e basta?

davide155
01-07-2007, 13:46
Edit doppio post.......
Il forum mi sa che ha dei problemi sui server......

davide155
01-07-2007, 15:30
Scusate ragazzi, ma quelle scene che si vedono spesso nei video sulla 2900xt....

Dove c'è uno che si fa riprendere dalla web-cam e l'immagine viene costruita dalla vga attraverso tanti pezzetti (quadratini?)......

I possessori di questa vga ci possono riuscire attraverso un programma in bundle con la scheda?
Oppure è un programmino segreto atto a far vedere solo questa cosa e basta?

up

Scrambler77
01-07-2007, 17:56
ragazzi se avete voglia date un occhiata a questa video recensione in italiano http://www.youtube.com/watch?v=N5kZBdseCco ....niente di nuovo ma cmq interessante...apparte il tipo che sbaglia un po di accenti....:asd:...o magari li sbaglio io....:stordita:

Complimenti per la coerenza: una recensione che mostra video di crysis risalenti a quando ancora R600 non c'era ancora e di Lost Planet dove notoriamente R600 non funziona! :asd:

Pat77
01-07-2007, 18:07
Complimenti per la coerenza: una recensione che mostra video di crysis risalenti a quando ancora R600 non c'era ancora e di Lost Planet dove notoriamente R600 non funziona! :asd:

Lost planet con i 7.7 beta mi dicono funzioni risolvendo i problemi di resa.

+Lonewolf+
01-07-2007, 19:50
non finirò piu di postarla ragazzi.....:rolleyes:
List of games with DirectX 10 support (http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support)
in effetti l'unico che manca è cod4 ma dovrebbe essere almeno in parte dx10...cmq niente di ufficiale...

supportare è differente da sfruttare...graw 2 support le dx10 per vista, ma non le sfrutta in quanto è SM2

TecnoWorld8
01-07-2007, 19:50
dai filmati di crysis, mi pare che questo gioco giri abbastanza bene...sarebbe bello sapere le configurazioni su cui gira!

+Lonewolf+
01-07-2007, 19:50
Lost planet con i 7.7 beta mi dicono funzioni risolvendo i problemi di resa.

non tutti ma almeno è giocabile

+Lonewolf+
01-07-2007, 19:51
cmq sti mezzi giochi DX10 di cui delle sudette librerie hanno solo il nome non mi interessano....piuttosto sarebbe bello sapere quando esce un gioco DX10 serio e non LostPlanet:mbe:

qui però come vedi già si hanno i primi risultati, non conterà molto ma qualcosina si vede

Chief
01-07-2007, 19:53
Lost planet con i 7.7 beta mi dicono funzioni risolvendo i problemi di resa.

Si con i beta lost planet è giocabile perfettamente in dx10(tranne AA e ombre alte)

Nos89
01-07-2007, 20:03
qui però come vedi già si hanno i primi risultati, non conterà molto ma qualcosina si vede

mi sembra che qui infatti la 2900 e la 8800(vanno male entrambe cmq) hanno prestazioni strane una volta buone poi male....IHMO sto gioco non vale una cippa

MonsterMash
01-07-2007, 20:06
Si con i beta lost planet è giocabile perfettamente in dx10(tranne AA e ombre alte)

Scusa, ma i beta non c'erano solo per windows xp? Se così fosse, come si fa a giocarlo in dx10? E se invece ci sono anche per vista, dove li scarico? Ho cercato parecchio, ma non li ho trovati quelli per vista...

Ciao

+Lonewolf+
01-07-2007, 20:17
mi sembra che qui infatti la 2900 e la 8800(vanno male entrambe cmq) hanno prestazioni strane una volta buone poi male....IHMO sto gioco non vale una cippa

forse dovresti guardare il test di COH

Pat77
01-07-2007, 20:46
Lost Planet secondo me comunque, pur essendo dx10, resta un gioco mediocre, almeno giocando la demo, siamo a 1 mese da Bioshock ;)

davide155
01-07-2007, 20:57
Scusate ragazzi, ma quelle scene che si vedono spesso nei video sulla 2900xt....

Dove c'è uno che si fa riprendere dalla web-cam e l'immagine viene costruita dalla vga attraverso tanti pezzetti (quadratini?)......

I possessori di questa vga ci possono riuscire attraverso un programma in bundle con la scheda?
Oppure è un programmino segreto atto a far vedere solo questa cosa e basta?

up.......devo postare il video?

Chief
01-07-2007, 20:57
Scusa, ma i beta non c'erano solo per windows xp? Se così fosse, come si fa a giocarlo in dx10? E se invece ci sono anche per vista, dove li scarico? Ho cercato parecchio, ma non li ho trovati quelli per vista...

Ciao

Ci sono pure i beta per vista però solo 32 bit e lost planet funge anche se IMHO io non ho visto nessuna differenza in dx10 rispetto a dx9 tutto qui ;)

davide155
01-07-2007, 20:57
Lost Planet secondo me comunque, pur essendo dx10, resta un gioco mediocre, almeno giocando la demo, siamo a 1 mese da Bioshock ;)

Concordo pienamente.
A me non dice nulla........
E poi la pesantezza è assurda :muro:

Free Gordon
01-07-2007, 23:32
dopo varie prove ecco come mi gira perfettamente, senza alcun tentennamento:
sistema operativo: Win Vista 32
versione driver: Cata 7.5
ciao :)



Per curiosità oggi ho provato la demo di Lost Planet sul mio pc (in sign):

:ncomment: :ncomment: :ncomment:

Nei momenti più critici raggiungevo l'impressionante frame rate di 11fps....

E non era cosa rara!!! (Catalyst 7.5).

I setting erano su high (e qualche raro medium, come l'HDR) e la res 1280x720, senza AA...
Nessun problema di visualizzazione ma frame rate davvero vergognosi...

carver
01-07-2007, 23:32
ricapitolando.....
la x2900xt prende fumo dalla concorrente nvidia x via della sua tecnologia che nn e' sfruttata?
e' prevista una serie xtx oppure 2950xt a breve_?

Free Gordon
01-07-2007, 23:38
Lost planet con i 7.7 beta mi dicono funzioni risolvendo i problemi di resa.

Come ti gira in dx10, con i setting messi nel post sopra? (tu aggiungici l'AA và :D )

davide155
01-07-2007, 23:43
Per curiosità oggi ho provato la demo di Lost Planet sul mio pc (in sign):

:ncomment: :ncomment: :ncomment:

Nei momenti più critici raggiungevo l'impressionante frame rate di 11fps....

E non era cosa rara!!! (Catalyst 7.5).

I setting erano su high (e qualche raro medium, come l'HDR) e la res 1280x720, senza AA...
Nessun problema di visualizzazione ma frame rate davvero vergognosi...

Io sono messo "meno peggio"......ma sempre imbarazzante.
Tutto al max con risoluzione 1360x768......non capisco perchè non ci siano le risoluzioni 16:10.........tutti i giochi ce l'hanno.......lost planet no :muro:
Cmq massimo 20fps......massimo!

Si vede che è preso e portato direttamente da console :rolleyes:
Hanno lasciato pure i tasti sotto back.....enter....ecc.......

Sulla x360 invece va a palla.......fluidissimo. Mai un tentennamento.
Possibile che ci voglia sempre un computer da 2000€ per far girare un gioco uguale a come gira su console? :doh:

Free Gordon
01-07-2007, 23:43
Concordo pienamente. A me non dice nulla........ E poi la pesantezza è assurda :muro:

Ho paura che tutti i giochi del 2007, per noi che abbiamo schede pc del 2005/2006 avranno performance migliori su 360.
Imho LP è stato un gioco stupendo, ma devi essere un amante del genere per apprezzarlo appieno.

Free Gordon
01-07-2007, 23:44
ricapitolando.....
la x2900xt prende fumo dalla concorrente nvidia x via della sua tecnologia che nn e' sfruttata?
e' prevista una serie xtx oppure 2950xt a breve_?

Lo sapremo solo quando ci saranno giochi dx10 fuori.. :D

+Lonewolf+
01-07-2007, 23:44
ricapitolando.....
la x2900xt prende fumo dalla concorrente nvidia x via della sua tecnologia che nn e' sfruttata?
e' prevista una serie xtx oppure 2950xt a breve_?

rileggi, poi riscrivi...:D

nessun fumo...:confused:

va meglio della gts in dx9 e per ora va meglio della gtx in directx 10...salvo sua eminenza LP:asd:

RICAPITOLANDO;)

Free Gordon
01-07-2007, 23:49
Io sono messo "meno peggio"......ma sempre imbarazzante. Tutto al max con risoluzione 1360x768......non capisco perchè non ci siano le risoluzioni 16:10.........tutti i giochi ce l'hanno.......lost planet no :muro:
Cmq massimo 20fps......massimo!

C'è la 1280x800 (che è 16:10).

Cmq è terribile come sia ingiocabile in alcuni momenti, seppur sia un gioco adrenalinico ma con un pg che si muove lentamente...

Tu con la 1900 andrai un pò più veloce sicuramente, ma il gioco ha un collo di bottiglia molto grosso negli effetti di post processing e negli effetti di trasparenza (pixel traslucidi). Gli effetti particellari della neve e delle esplosioni, su console sono gestite molto bene dall'eDRAM e una banda del genere (per quei particolari utlizzi) su pc non ce l'hanno nemmeno le 2900.
Penso che avrebbero dovuto riprogrammarlo radicalmente per farlo girare bene sulle nostre schede.
Su 8800 a quanto pare invece gira bene (vorrei sapere esattamente quanto bene però :D ).

+Lonewolf+
01-07-2007, 23:52
C'è la 1280x800 (che è 16:10).

Cmq è terribile come sia ingiocabile in alcuni momenti, seppur sia un gioco adrenalinico ma con un pg che si muove lentamente...

Tu con la 1900 andrai un pò più veloce sicuramente, ma il gioco ha un collo di bottiglia molto grosso negli effetti di post processing e negli effetti di trasparenza (pixel traslucidi). Gli effetti particellari della neve e delle esplosioni, su console sono gestite molto bene dall'eDRAM e una banda del genere (per quei particolari utlizzi) su pc non ce l'hanno nemmeno le 2900.
Penso che avrebbero dovuto riprogrammarlo radicalmente per farlo girare bene sulle nostre schede.
Su 8800 a quanto pare invece gira bene (vorrei sapere esattamente quanto bene però :D ).



e aggiungere perchè:D

davide155
01-07-2007, 23:56
C'è la 1280x800 (che è 16:10).

Cmq è terribile come sia ingiocabile in alcuni momenti, seppur sia un gioco adrenalinico ma con un pg che si muove lentamente...

Tu con la 1900 andrai un pò più veloce sicuramente, ma il gioco ha un collo di bottiglia molto grosso negli effetti di post processing e negli effetti di trasparenza (pixel traslucidi). Gli effetti particellari della neve e delle esplosioni, su console sono gestite molto bene dall'eDRAM e una banda del genere (per quei particolari utlizzi) su pc non ce l'hanno nemmeno le 2900.
Penso che avrebbero dovuto riprogrammarlo radicalmente per farlo girare bene sulle nostre schede.
Su 8800 a quanto pare invece gira bene (vorrei sapere esattamente quanto bene però :D ).

Si infatti.......
Come era l'hanno preso e messo in eseguibile per windows :asd:

A questo punto lo tenevano come esclusiva console e facevano più bella figura :rolleyes:

Cmq aspettiamo bioshock.....crysis....ut3......huxley......questi si che sono titoli degni (quanto sembra) di una buona programmazione, e che usciranno entro fine anno :O

M4R1|<
02-07-2007, 00:16
Si infatti.......
Come era l'hanno preso e messo in eseguibile per windows :asd:

A questo punto lo tenevano come esclusiva console e facevano più bella figura :rolleyes:

Cmq aspettiamo bioshock.....crysis....ut3......huxley......questi si che sono titoli degni (quanto sembra) di una buona programmazione, e che usciranno entro fine anno :O

sono pienamente daccordo, anche se cmq si potrebbe aspettare un patch per DiRT e vedere se migliora. magari ne buttano fuori una da 200mb che risolve tutto:D :D

Chief
02-07-2007, 00:17
Si infatti.......
Come era l'hanno preso e messo in eseguibile per windows :asd:

A questo punto lo tenevano come esclusiva console e facevano più bella figura :rolleyes:

Cmq aspettiamo bioshock.....crysis....ut3......huxley......questi si che sono titoli degni (quanto sembra) di una buona programmazione, e che usciranno entro fine anno :O

Lo spero veramente che sono di ottima programmazione altrimenti veramente...devo pensare che non si sa più programmare su pc :rolleyes:

MonsterMash
02-07-2007, 00:18
Si infatti.......
Come era l'hanno preso e messo in eseguibile per windows :asd:

A questo punto lo tenevano come esclusiva console e facevano più bella figura :rolleyes:

Cmq aspettiamo bioshock.....crysis....ut3......huxley......questi si che sono titoli degni (quanto sembra) di una buona programmazione, e che usciranno entro fine anno :O

La mia personale attenzione è focalizzata nell'ordine su:
1) Stranglehold
2) Bioshock
3) Crysis

Gli altri saranno anche belli, ma questi tre sono decisamente i miei "must buy", sperando che non deludano le aspettative.

Daytona
02-07-2007, 00:40
Ciao Guys,
stò testando questo bel mostriciattolo della 2900xt :D

ho tolto la "vecchia" x1950XTX, messo i 7.6 , la 2900xt e la cosa buffa è che sia il 3dmark05 sia lo 06, che sono sempre andati, non partono piu'...quando li lancio da task manager vedo che non rispondono e mi si rallenta il pc ...così li devo killare :eek:... mentre i vari giochi che ho installato vanno benissimo :)

...cosa devo fare per far partire il 3dm05/06 con la 2900 e i 7.6 ???:mbe:

:help:

1100000110100000

3DMark79
02-07-2007, 00:49
Lo spero veramente che sono di ottima programmazione altrimenti veramente...devo pensare che non si sa più programmare su pc :rolleyes:

Conoscendo Far Cry penso che Crysis non ci deluderà!:D

TecnoWorld8
02-07-2007, 01:18
Per curiosità oggi ho provato la demo di Lost Planet sul mio pc (in sign):

:ncomment: :ncomment: :ncomment:

Nei momenti più critici raggiungevo l'impressionante frame rate di 11fps....

E non era cosa rara!!! (Catalyst 7.5).

I setting erano su high (e qualche raro medium, come l'HDR) e la res 1280x720, senza AA...
Nessun problema di visualizzazione ma frame rate davvero vergognosi...

penso che i giochi in uscita da giugno in poi saranno la "tomba" delle nostre gloriose x1800xt :) per questo avrebbe dovuto uscire una scheda "bomba" a maggio, anzichè una scheda buona, ma non superlativa...era ciò che mi aspettavo da tempo e sono rimasto deluso.

Chief
02-07-2007, 01:25
penso che i giochi in uscita da giugno in poi saranno la "tomba" delle nostre gloriose x1800xt :) per questo avrebbe dovuto uscire una scheda "bomba" a maggio, anzichè una scheda buona, ma non superlativa...era ciò che mi aspettavo da tempo e sono rimasto deluso.

Ormai Tecno il tuo pensiero su questa generazione di VGA penso l'abbia capita tutta il forum, non ce bisogno di dire sempre la stessa cosa per te la 2900xt è una delusione penso che lo sappiano tutti ormai :D (nulla contro di te)

Chief
02-07-2007, 01:32
Ciao Guys,
stò testando questo bel mostriciattolo della 2900xt :D

ho tolto la "vecchia" x1950XTX, messo i 7.6 , la 2900xt e la cosa buffa è che sia il 3dmark05 sia lo 06, che sono sempre andati, non partono piu'...quando li lancio da task manager vedo che non rispondono e mi si rallenta il pc ...così li devo killare :eek:... mentre i vari giochi che ho installato vanno benissimo :)

...cosa devo fare per far partire il 3dm05/06 con la 2900 e i 7.6 ???:mbe:

:help:

1100000110100000

Semplice basta cliccare sull'icona del 3dmark il tasto destro del mouse propietà e aggiungere a collegamento - nosysteminfo
esempio----> "C:\Programmi\Futuremark\3DMark06\3DMark06.exe" -nosysteminfo (spero di essere stato chiaro :D)

Aggiungo metti gli hotfix che vanno gia un pochino meglio ;)

TecnoWorld8
02-07-2007, 01:37
Ormai Tecno il tuo pensiero su questa generazione di VGA penso l'abbia capita tutta il forum, non ce bisogno di dire sempre la stessa cosa per te la 2900xt è una delusione penso che lo sappiano tutti ormai :D (nulla contro di te)

chiedo scusa se ho ribadito il concetto, ma è quello che mi viene in mente ogni volta che penso che attualmente non esiste una scheda che possa far girare bene determinati giochi, che saranno anche mal programmati, non si discute, ma sono cumunque quelli che ci propone il mercato. non dico che la 2900 sia una delusione e le altre concorrenti no (infatti non prendo manco quelle), ma dico che NON esiste una scheda nuova, che sia al top con ogni gioco esistente, come fu 8800 all'uscita, o come fu x1900xt all'uscita...

Chief
02-07-2007, 01:58
chiedo scusa se ho ribadito il concetto, ma è quello che mi viene in mente ogni volta che penso che attualmente non esiste una scheda che possa far girare bene determinati giochi, che saranno anche mal programmati, non si discute, ma sono cumunque quelli che ci propone il mercato. non dico che la 2900 sia una delusione e le altre concorrenti no (infatti non prendo manco quelle), ma dico che NON esiste una scheda nuova, che sia al top con ogni gioco esistente, come fu 8800 all'uscita, o come fu x1900xt all'uscita...

Non ci sono problemi figurati il tuo concetto è chiarissimo...comunque ce solo da aspettare top di gamma non ce ne sono se vuoi una top ora c'è la ultra :read:...Sinceramente fin quando non esce un gioco dx10 nessuno sa come andranno queste schede quindi un gudizio non si potrà dare prima della data di determinati giochi, e fin quando la 2900xt non sarà in gionocchio non la cambierò assolutamente tutto questo sempre IMHO inoltre i giochi momentaniamente disponibili sul mercato con la 2900 li gioco perfettamente ;)