PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 [31] 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61

Free Gordon
23-07-2007, 14:17
anche STALKER mi pare usi questa tecnica, ma dubito che R600 possa usare gli shader per applicare l'AA in quel gioco. sbaglio?

In STALKER "clear sky" dx10, lo si dovrà fare ad esempio. ;)

Nello STALKER attuale dx9, ovviamente no.

Pat77
23-07-2007, 14:24
Per Free gordon

Come non è legato alle Api? Se supportano via software una tale modalità via api possono mettere e ottimizzare il fsaa come vogliono, in dx9 questo non succede.

Chiusa parentesi.

Secondo me in dx10 via rops avrà gli stessi limiti che si verificano in dx9, o qualcuno sa o ha un link dove si dice che non sarà così?

L'ideale sarebbe una scheda che possa gestire entrambe le modalità dinamicamente e utilizzare quella che si adatta meglio al gioco.

Catan
23-07-2007, 14:42
In quei due giochi (dx10) che ho nominato sì (ad esempio).

Ma non saranno i soli in quest'autunno/inverno. ;)

anche se cmq credo che anche in questa soluzione le g80 non andranno malissimo cmq la frequenza degli shader è elevata sia parla dai 1200 ai 1500mhz che non sono pochi.certo forse il numero potrebe essere un problema dai 96 ai 128.
anche se boh nvidia al possibilità di scelgiere l'ha messa ati no ora è da vedere se per bug hw(pesima ipotesi per loro) o bug software(pessima lo stesso solo che un pò meno;) )

+Lonewolf+
23-07-2007, 15:07
se l`AA verra introdotto via shader allora la 2900 si comporter' molto meglio di g80, le op per secondo di shading di r600 sono ben 237400 contro le 178000 della gtx e le 153000 della gts

leoneazzurro
23-07-2007, 15:11
ah, per cui è vivo.. :D

proviamo ad evocarlo, magari sbuca per parlarci di questa questione del bug (che a dire il vero non ho compreso appieno..)

Bug risolvibile via driver o.... no?

Perchè se ci fosse la possibilità di fare aa via rops anche su R600 ma non è mai stata sfruttata allora si capirebbero molte cose.. e la scheda oltretutto avrebbe prestazioni mooolto più vicine alla GTX di quanto si percepisca oggi (parlando dei giochi attuali, ovviamente :D sui giochi futuri sono abbastanza confidente del fatto che potrà andare anche più forte della Ultra :D ).

Se è un bug HW (questa mi giunge nuova, ma non si sa mai... :D) la cosa molto curiosa è che non lo abbiano corretto sulle HD 2600/2400, dato che c'era probabilmente tutto il tempo per farlo...

Iantikas
23-07-2007, 15:17
io credo ke nn ci sia proprio questo bug...e x l'AA d tipo box vengano usate le rop, mentre x i CFAA gli shader...ciao

Pat77
23-07-2007, 15:22
Secondo me semplicemente è una politica, come quella di fare 16 rop's, o del rapporto 1 a 3 con le tmu in x1900.

Catan
23-07-2007, 15:33
Se è un bug HW (questa mi giunge nuova, ma non si sa mai... :D) la cosa molto curiosa è che non lo abbiano corretto sulle HD 2600/2400, dato che c'era probabilmente tutto il tempo per farlo...

offettivamente è quello che penso anche io per questo credo che non sia stato ancora risolto semplicemente xè adesso si stanno occupando di altro al comparto dvr.
secondo me stanno cercando di fare un coredvr che sfrutti al meglio l'archidettura superscalare di r600 e cmq anche dei suoi derivati rv630 e rv610
hanno visto che cmq le prestazioni dell'aa software via aa cmq restano buone anche se si potrebbe far meglio.
se invece il calo dell'aa in shader via software fosse stato + ingente vedi come gia dai dvr 7.6 il bug non sarebbe stato risolto per sfruttare le rop's.

vedo 3 opzioni

1)stanno lavornado sul coredvr e per loro questo è goal principale e se ne fregano degli altri problemi
2)lavorano sul core dvr e sanno che sistemare questo bug delle rop's una volta fatto il coredvr ad hoc per r600 e derivati e pensano che sia molto + semplice risolvere questo bug con il coredvr ultimato che non mettendoci mano adesso.
3)non hanno ne voglia di sistemarlo ne di sbattersi e preferiscono concentrarsi sull'affinare il dvr per lo shaderAA in vista delle dx10.

certo a me andrebbe bene anche la terza ipotesi ma sapere che cmq parte del mio hw non viene sfruttato al 100% mi rode un pò;)

MonsterMash
23-07-2007, 16:01
In quei due giochi (dx10) che ho nominato sì (ad esempio).

Ma non saranno i soli in quest'autunno/inverno. ;)

Infatti, entro l'anno dovrebbero uscire anche Gears of War e Call of duty 4, che useranno UE3 e presumibilmente il deferred shading.

Ciao

Sataner
23-07-2007, 16:30
ripropongo quello ke ho scritto in un altro topic riguardo l'alimentazione:

rikiede un connettore 8 poli e uno da 6....posso nake montare 2x 6pin è vero...ma a me interessava avere il tool di oc!

ho visto ke msi è forse l'unica a inserirti il cavo di conversione da 6 a 8...ma è difficile trovare, o per lo meno nn sn riuscito a trovarlo, un negozio ke la vendesse! ne conoscete qualcuno?

allora...se devo ripiegare su un'altra marca...c'è la possibilità di trovare un cavo di conversione o cmq come potrei fare?

grazie

mg
__________

leoneazzurro
23-07-2007, 16:33
io credo ke nn ci sia proprio questo bug...e x l'AA d tipo box vengano usate le rop, mentre x i CFAA gli shader...ciao

Vengono usati gli shader sia per il box AA che per il CFAA.

Chief
23-07-2007, 16:54
ripropongo quello ke ho scritto in un altro topic riguardo l'alimentazione:

rikiede un connettore 8 poli e uno da 6....posso nake montare 2x 6pin è vero...ma a me interessava avere il tool di oc!

ho visto ke msi è forse l'unica a inserirti il cavo di conversione da 6 a 8...ma è difficile trovare, o per lo meno nn sn riuscito a trovarlo, un negozio ke la vendesse! ne conoscete qualcuno?

allora...se devo ripiegare su un'altra marca...c'è la possibilità di trovare un cavo di conversione o cmq come potrei fare?

grazie

mg
__________

Non ce bisogno di montare il connettore da 8 pin ora con molti programmi puoi fare OC senza aver bisogno del connettore a 8 pin esempio lampante Rivatuner o il programma amd ;)

Sataner
23-07-2007, 17:00
quindi posso andare tranquillo kn i due 6 pin?

allora ke cavolo gliel'hanno messo a fare l'otto poli??

la video d msi sapete x caso dove posso trovarla???

nn sn riuscito a trovare nessuno shop ke la vende!

mg

×§ñåkê×
23-07-2007, 17:04
quindi posso andare tranquillo kn i due 6 pin?

allora ke cavolo gliel'hanno messo a fare l'otto poli??

la video d msi sapete x caso dove posso trovarla???

nn sn riuscito a trovare nessuno shop ke la vende!

mg

per overcloccarla da ccc

ale0bello0pr
23-07-2007, 17:18
... qualcuno ha provato Tomb Raider Anniversary con la 2900? Oppure e' a conoscenza di incompatibilita'? A me da' solo una bella schermata nera... :eek:
Ciao!
Baio

Una bella schermata nera....mmmmm :stordita:
mi sarei preoccupato se fosse stata blu..... :asd:

Iantikas
23-07-2007, 17:32
quindi posso andare tranquillo kn i due 6 pin?

allora ke cavolo gliel'hanno messo a fare l'otto poli??

la video d msi sapete x caso dove posso trovarla???

nn sn riuscito a trovare nessuno shop ke la vende!

mg

è totalmente inutile sbatterti x cercare l'8pin se il tuo ali nn lo ha...l'unica cosa ke perdi è l'overdrive (l'oc tramite ccc)...ma in realtà nn perdi niente, anzi...

...con prog come rivatuner puoi overclokkare così come faresti con l'overdrive da ccc (in pratica imposti le freq. desiderate e via...senza creare profili, senza killare processi etc) e inoltre, a differenza dell'overdrive, nn hai limiti di freq. (fin troppo conservativi) impostabili se nn quelli propri della GPU...

da vari test inoltre è stato appurato ke le max freq. ke raggiunge la skeda in oc son le stesse identike sia se la si alimenta tramite 8/6 sia tramite 6/6...(questo xkè il limite d 75W del cavetto 6pin è un limite solo sulla carta...il cavetto fisicamente può far passare molta + corrente senza subire il minimo danno [x es. in molte rece dove testano gli ali fanno passar di li anke 10A])...

...ciao

TecnoWorld8
23-07-2007, 18:26
se l`AA verra introdotto via shader allora la 2900 si comporter' molto meglio di g80, le op per secondo di shading di r600 sono ben 237400 contro le 178000 della gtx e le 153000 della gts

per ora, dagli attuali possessori di 2900, sento solo speranze...che i driver migliorino, che i giochi implementino l'AA via shader, che vengano sfruttati i 512bit della memoria...questo è il motivo per cui non ho preso la 2900...non mi piace vivere sperando. volevo un prodotto top di gamma, ora. non c'è. aspetterò.

Chief
23-07-2007, 18:33
per ora, dagli attuali possessori di 2900, sento solo speranze...che i driver migliorino, che i giochi implementino l'AA via shader, che vengano sfruttati i 512bit della memoria...questo è il motivo per cui non ho preso la 2900...non mi piace vivere sperando. volevo un prodotto top di gamma, ora. non c'è. aspetterò.

:asd: Ci è chiaro il tuo concetto ormai da quando è uscito r600 ;) Per quel che mi riguardo, essendo possessore di r600 sto vedendo grandi miglioramenti via driver, non penso siano solo speranze, ricordo che siamo appena alla seconda release dei driver e hanno risolto gia molti problemi :D, ma io non voglio convincerti a comprare nulla, fai bene ad aspettare la nuova generazione che molto probabilmente sarà nVidia....secondo me una top do gamma c'è in questa momento ed è la ultra ;)

TecnoWorld8
23-07-2007, 20:44
:asd: Ci è chiaro il tuo concetto ormai da quando è uscito r600 ;) Per quel che mi riguardo, essendo possessore di r600 sto vedendo grandi miglioramenti via driver, non penso siano solo speranze, ricordo che siamo appena alla seconda release dei driver e hanno risolto gia molti problemi :D, ma io non voglio convincerti a comprare nulla, fai bene ad aspettare la nuova generazione che molto probabilmente sarà nVidia....secondo me una top do gamma c'è in questa momento ed è la ultra ;)

certo che è la ultra, ma essa è basata su una tecnologia uscita sul mercato da 8 mesi, che sarebbe già sicuramente stata rimpiazzata se R600 avesse superato la GTX e la Ultra, ma che viene tenuta lì per mancanza di concorrenza.

Infatti un mercato con soli due "player" è pericolosissimo, perchè se uno fa un passo falso, l'altro diventa - pressochè - monopolista in un settore (in questo caso performance assolute) e può imporre i ritmi che desidera.

Faccio un esempio: se il futuro Phenom di AMD fosse inferiore al Conroe/Penryn (speriamo davvero non accada, per il bene di tutti!) o uscisse in forte ritardo rispetto a Penryn, perchè mai Intel dovrebbe affrettare l'uscita di Nehalem? Potrebbe "cullarsi" sugli allori, e attendere che AMD sia pronta con qualcosa di più potente, per poi immettere sul mercato, a sua volta, una CPU che superi AMD.

Io sono convinto, davvero, che se R600 fosse stato più potente di G80, nVidia avrebbe immesso sul mercato A TEMPO DI RECORD (forse già per l'estate) una versione migliorata dello stesso, dato che ha avuto TUTTO IL TEMPO per prepararla. Non l'ha fatto semplicemente perchè così può continuare a vendere G80 a prezzo elevato, tanto è ancora il top prestazionale nonostante l'anzianità, e attendere novembre, quando COMUNQUE sarà in anticipo rispetto ad ATi.

Tutto ciò, per me, è davvero tanto, tanto triste.

Chief
23-07-2007, 21:03
certo che è la ultra, ma essa è basata su una tecnologia uscita sul mercato da 8 mesi, che sarebbe già sicuramente stata rimpiazzata se R600 avesse superato la GTX e la Ultra, ma che viene tenuta lì per mancanza di concorrenza.

Infatti un mercato con soli due "player" è pericolosissimo, perchè se uno fa un passo falso, l'altro diventa - pressochè - monopolista in un settore (in questo caso performance assolute) e può imporre i ritmi che desidera.

Faccio un esempio: se il futuro Phenom di AMD fosse inferiore al Conroe/Penryn (speriamo davvero non accada, per il bene di tutti!) o uscisse in forte ritardo rispetto a Penryn, perchè mai Intel dovrebbe affrettare l'uscita di Nehalem? Potrebbe "cullarsi" sugli allori, e attendere che AMD sia pronta con qualcosa di più potente, per poi immettere sul mercato, a sua volta, una CPU che superi AMD.

Io sono convinto, davvero, che se R600 fosse stato più potente di G80, nVidia avrebbe immesso sul mercato A TEMPO DI RECORD (forse già per l'estate) una versione migliorata dello stesso, dato che ha avuto TUTTO IL TEMPO per prepararla. Non l'ha fatto semplicemente perchè così può continuare a vendere G80 a prezzo elevato, tanto è ancora il top prestazionale nonostante l'anzianità, e attendere novembre, quando COMUNQUE sarà in anticipo rispetto ad ATi.

Tutto ciò, per me, è davvero tanto, tanto triste.

La situazione è triste ma non si sa ancora realmente come queste schede compresa g80 come andranno nel futuro, come sappiamo c'è un grande punto interrogativo su queste schede in dx10 cioè il futuro,in dx9 è ben chiara la situazione entrambi le schede riescono a reggere perfettamente con i giochi fin'ora in commercio non la vedo tanto drammatica come la vedi tu sinceramente, io direi di aspettare ancora un pochino per pronunciarsi su queste due schede,g80 può essere un architettura vecchia di 8 mesi ma i giochi presenti sul mercato girano tutti con ottime prestazioni quindi una soluzione validissima...quando vedrò queste due schede messe in ginocchio allora si parlerà di cambiamento di scheda video fino ad allora non se ne parla minimamente, da ricordare come oggi una soluzione come la 1900 è un ottimo compromesso prestazione\prezzo,attendo il primo banco di test che sarà per me Bioshok un titolo che aspeto da molto tempo ;)

Sataner
23-07-2007, 21:06
è totalmente inutile sbatterti x cercare l'8pin se il tuo ali nn lo ha...l'unica cosa ke perdi è l'overdrive (l'oc tramite ccc)...ma in realtà nn perdi niente, anzi...

...con prog come rivatuner puoi overclokkare così come faresti con l'overdrive da ccc (in pratica imposti le freq. desiderate e via...senza creare profili, senza killare processi etc) e inoltre, a differenza dell'overdrive, nn hai limiti di freq. (fin troppo conservativi) impostabili se nn quelli propri della GPU...

da vari test inoltre è stato appurato ke le max freq. ke raggiunge la skeda in oc son le stesse identike sia se la si alimenta tramite 8/6 sia tramite 6/6...(questo xkè il limite d 75W del cavetto 6pin è un limite solo sulla carta...il cavetto fisicamente può far passare molta + corrente senza subire il minimo danno [x es. in molte rece dove testano gli ali fanno passar di li anke 10A])...

...ciao

ok...grazie...ho capito perfettamente!allora niente sbattimento!

riguardo alla skeda...è vero ke c'è da sperare nei driver migliori del domani...pero ancora nn m capacito del fatto ke architettualmente è migliore...eppure nn va al max(anke se io la considero cmq un ottima skeda!)...ma xè?

ho letto di gente ke si lamentava del fatto ke la gtx fa sl 32frames/s kn un gioco dx10...beh....lo credo!!...alla risoluzione di 2048x2048 qnti frames vuoi?!!

ste g92 cm saranno?...secondo voi è meglio ke attendo qst nuove architetture, compreso anke r650/700, oppure, dato ke sn alle cozze kn la mia vga...è cmq un affare acquistare qst 2900xt?

mg

M4R1|<
23-07-2007, 21:09
se l`AA verra introdotto via shader allora la 2900 si comporter' molto meglio di g80, le op per secondo di shading di r600 sono ben 237400 contro le 178000 della gtx e le 153000 della gts

spero proprio che ci stiano lavornado:D

cmq nn credo che R600 abbia un bug HW, anche perchè si sono presi diversi mesi per farlo:read: , quindi è impossibile

Chief
23-07-2007, 21:15
spero proprio che ci stiano lavornado:D

cmq nn credo che R600 abbia un bug HW, anche perchè si sono presi diversi mesi per farlo:read: , quindi è impossibile

Bug Hw non dovrebbe averne, poche persone sanno che R600 non sfrutta ancora i rops per fare AA quindi viene accollato tutto allo shader core il che comporta una grave perdita di prestazioni,penso che nelle future release questo bug verrà risolto, e comunque pensa ai giochi futuri non sarà possibile fare aa su rops quindi per forze di cose dovrà essere fatto come r600 ;)

M4R1|<
23-07-2007, 21:27
Bug Hw non dovrebbe averne, poche persone sanno che R600 non sfrutta ancora i rops per fare AA quindi viene accollato tutto allo shader core il che comporta una grave perdita di prestazioni,penso che nelle future release questo bug verrà risolto, e comunque pensa ai giochi futuri non sarà possibile fare aa su rops quindi per forze di cose dovrà essere fatto come r600 ;)

spero quindi che coi giochi futuri e le future relase di driver cambino le cose. cmq secondo me Ati è incentrata sul coredriver, e poi passa a sistemare tutto il resto, anche perchè visto che le cose nn gli vanno tanto bene (e mi spiace tantissimo) nn può permettersi di tirare a sorte su un solo metodo per fare AA, perchè se per caso i futuri game nn dovessoro fare come ati prevedeva le cose andranno molto ma molto male (e mi riferisco sopratutto a quello che ha detto TecnoWorld8)

edit: cavolo cmq quante cose, mi allontano per un gg e avete detto tantissimo

Chief
23-07-2007, 21:29
spero quindi che coi giochi futuri e le future relase di driver cambino le cose. cmq secondo me Ati è incentrata sul coredriver, e poi passa a sistemare tutto il resto, anche perchè visto che le cose nn gli vanno tanto bene (e mi spiace tantissimo) nn può permettersi di tirare a sorte su un solo metodo per fare AA, perchè se per caso i futuri game nn dovessoro fare come ati prevedeva le cose andranno molto ma molto male (e mi riferisco sopratutto a quello che ha detto TecnoWorld8)

edit: cavolo cmq quante cose, mi allontano per un gg e avete detto tantissimo


Voglio dirti una cosa gia l UE3 dovrebbe per forza di cosa utilizzare questo metodo quindi voglio dire il futuro non è tanto lontano vedremo sempre più giochi usare questo motore, ormai l'hanno comprato quasi tutti ;)

Iantikas
23-07-2007, 21:30
certo che è la ultra, ma essa è basata su una tecnologia uscita sul mercato da 8 mesi, che sarebbe già sicuramente stata rimpiazzata se R600 avesse superato la GTX e la Ultra, ma che viene tenuta lì per mancanza di concorrenza.

Infatti un mercato con soli due "player" è pericolosissimo, perchè se uno fa un passo falso, l'altro diventa - pressochè - monopolista in un settore (in questo caso performance assolute) e può imporre i ritmi che desidera.

Faccio un esempio: se il futuro Phenom di AMD fosse inferiore al Conroe/Penryn (speriamo davvero non accada, per il bene di tutti!) o uscisse in forte ritardo rispetto a Penryn, perchè mai Intel dovrebbe affrettare l'uscita di Nehalem? Potrebbe "cullarsi" sugli allori, e attendere che AMD sia pronta con qualcosa di più potente, per poi immettere sul mercato, a sua volta, una CPU che superi AMD.

Io sono convinto, davvero, che se R600 fosse stato più potente di G80, nVidia avrebbe immesso sul mercato A TEMPO DI RECORD (forse già per l'estate) una versione migliorata dello stesso, dato che ha avuto TUTTO IL TEMPO per prepararla. Non l'ha fatto semplicemente perchè così può continuare a vendere G80 a prezzo elevato, tanto è ancora il top prestazionale nonostante l'anzianità, e attendere novembre, quando COMUNQUE sarà in anticipo rispetto ad ATi.

Tutto ciò, per me, è davvero tanto, tanto triste.

anke se R600 avesse surclassato la Ultra...la next gen nvidia (G92?) sarebbe cmq uscita a novembre (sin dall'uscita d G80 nvidia dikiaro ke avrebbe messo in commercio una nuova arkitettura ogni anno...un pò come intel ha dikiarato una nuova arkitettura ogni due e un refresh ogni anno...ed entrambi pare ke stiano seguendo alla lettera queste dikiarazioni)...

...io cmq nn la vedo così nera, nella sua fascia di prezzo hd2900xt se la batte con la GTS e a far prevalere una o l 'altra è solo questione d preferenza personale...

...ciao

p.s.: e cmq nvidia l'ha fatta uscire "a tempo d record" una versione migliorata di G80...la Ultra...

M4R1|<
23-07-2007, 21:34
Voglio dirti una cosa gia l UE3 dovrebbe per forza di cosa utilizzare questo metodo quindi voglio dire il futuro non è tanto lontano vedremo sempre più giochi usare questo motore, ormai l'hanno comprato quasi tutti ;)

spero proprio che sia così:)

M4R1|<
23-07-2007, 21:38
anke se R600 avesse surclassato la Ultra...la next gen nvidia (G92?) sarebbe cmq uscita a novembre (sin dall'uscita d G80 nvidia dikiaro ke avrebbe messo in commercio una nuova arkitettura ogni anno...un pò come intel ha dikiarato una nuova arkitettura ogni due e un refresh ogni anno...ed entrambi pare ke stiano seguendo alla lettera queste dikiarazioni)...

...io cmq nn la vedo così nera, nella sua fascia di prezzo hd2900xt se la batte con la GTS e a far prevalere una o l 'altra è solo questione d preferenza personale...

...ciao

p.s.: e cmq nvidia l'ha fatta uscire "a tempo d record" una versione migliorata di G80...la Ultra...

be allora io provo a fare una domanda molto azzardata: è possibile che se R600 avesse dei driver fatti veramente bene (visto che in linea teorica è molto più potente di G80) possa aspirare al secondo posto nel confroto G92 vs R600?

TecnoWorld8
23-07-2007, 21:43
anke se R600 avesse surclassato la Ultra...la next gen nvidia (G92?) sarebbe cmq uscita a novembre (sin dall'uscita d G80 nvidia dikiaro ke avrebbe messo in commercio una nuova arkitettura ogni anno...

ok, ma all'interno della stessa architettura, mi aspettavo un refresh (che non fosse solo un aumento di clock, come è stato per la Ultra) dopo circa 8 mesi dall'introduzione, come è capitato altre volte...

appleroof
23-07-2007, 21:46
ok, ma all'interno della stessa architettura, mi aspettavo un refresh (che non fosse solo un aumento di clock, come è stato per la Ultra) dopo circa 8 mesi dall'introduzione, come è capitato altre volte...

ad Nvidia dichiararono (spergiurarono) che G80 sarebbe stato a shader separati :asd:

;)

Catan
23-07-2007, 21:56
ad Nvidia dichiararono (spergiurarono) che G80 sarebbe stato a shader separati :asd:

;)

no non propio sbandieravano la frase "guardate che le specifiche dx10 dicono soloche l'uotput deve risultare unificato poi come lavora al suo interno puo anche essere separato e fornire l'output finale unificato via dvr"
ovviamente se i pr nvidia mi dicono questa cosa nsomma uno pensa che g80 era separato per forza.

Iantikas
24-07-2007, 00:56
be allora io provo a fare una domanda molto azzardata: è possibile che se R600 avesse dei driver fatti veramente bene (visto che in linea teorica è molto più potente di G80) possa aspirare al secondo posto nel confroto G92 vs R600?

una cosa è (quasi :D ) certa...G92 (o cmq si kiamerà la nuova gpu topd gamma ke nvidia farà uscire a fine anno) sarà + performante d tutte le skede attualmente in commercio...

...ke poi R600 sia "molto + potente" d G80 a me nn pare proprio...son due arkitetture differenti...una si avvantaggia in un campo, l'altra in un altro...ma nn'è dall'arkitettura ke si può dire ki va meglio...son i vari gioki a determinare la + prestante e attualmente nn'è l'HD2900XT ad essere mediamente + prestante...ciao

Free Gordon
24-07-2007, 01:03
Per Free gordon
Come non è legato alle Api? Se supportano via software una tale modalità via api possono mettere e ottimizzare il fsaa come vogliono, in dx9 questo non succede.
Chiusa parentesi.


Intendo dire che anche in DX10 si subirà forte un calo di performance, solo che lo subirà anche G80 (e probabilmente in modo più consistente ;) ).
In quel senso non è legato alle API.

Free Gordon
24-07-2007, 01:15
Se è un bug HW (questa mi giunge nuova, ma non si sa mai... :D) la cosa molto curiosa è che non lo abbiano corretto sulle HD 2600/2400, dato che c'era probabilmente tutto il tempo per farlo...

ma anche io spero vivamente che sia una questione legata ai driver... però è strana questa cosa detta da Yoss

Free Gordon
24-07-2007, 01:17
io credo ke nn ci sia proprio questo bug...e x l'AA d tipo box vengano usate le rop, mentre x i CFAA gli shader...ciao

venissero usate le rops, per l'AA "box" ci sarebbe meno perdita di quella che si ha oggi con un semplice 4x, considerando le migliorie alle ROPs di R600 rispetto ad R580 e alla frequenza maggiore (oltre alla banda mostruosa a disposizione..)

Free Gordon
24-07-2007, 01:21
per ora, dagli attuali possessori di 2900, sento solo speranze...che i driver migliorino, che i giochi implementino l'AA via shader, che vengano sfruttati i 512bit della memoria...questo è il motivo per cui non ho preso la 2900...non mi piace vivere sperando. volevo un prodotto top di gamma, ora. non c'è. aspetterò.

le speranze sono legate al fatto che si fanno i confronti con il G80, cosa che è utile a fini speculativi (acquisti vari) ma del tutto inutile per giudicare l'architettura (perlomeno fatta come si fa nei forum, sopratutto come questo :sofico: )



Tutto ciò, per me, è davvero tanto, tanto triste.

La situazione è triste perchè c'è sempre chi cerca di mettere a confronto pere con mele, senza godersi ciò che di buono ha... (e nello specifico, una scheda con un buon rapporto qualità/prezzo come R600).
Ogni casa fa le sue scelte, nVidia ha scelto di fare una scheda super dx9 (probabilmente mai ATI sarebbe riuscita a fare una scheda che va tanto forte in dx9.. :D ), ATI ha scelto (anni fà eh ;) ) di programmare un chip sulle specifiche dx10.. mettendoci un bel pò di tecnologia e transistor dentro (al pari di nVidia).

Chi ha fatto bene e chi male?

E' sempre il mercato a deciderlo...ora come ora potremmo pensare che ATI sia stata avventata ma chi può biasimare la sua scelta? :)
Io non lo farei sinceramente, anzi, la apprezzo particolarmente come da sempre apprezzo maggiormente la filosofia costruttiva di questa casa rispetto a quella di nVidia (le cui uniche schede che ho comprato ultimamente sono state 6600GT e 7600GT).
Anche se oggi G80 è più veloce di R600 nella maggioranza dei giochi. ^_^

Quoziente
24-07-2007, 07:43
Ieri sera ho fatto un po' di test con il rightmark DX10 (oggi mi riprometto di postare i risultati). Ho notato una cosa strana da questi test:nel 90% dei test effettuati ho un valore di fps maggiore con l'AA4x rispetto all'AA2x e comunque anche nei restanti casi i valori sono pressoche uguali. Non vi pare strano?

Scrambler77
24-07-2007, 09:07
be allora io provo a fare una domanda molto azzardata: è possibile che se R600 avesse dei driver fatti veramente bene (visto che in linea teorica è molto più potente di G80) possa aspirare al secondo posto nel confroto G92 vs R600?

E' la tua linea teorica ad essere sbagliata... se la prendessimo per vera, ci sarebbe anche la marmotta che confeziona la cioccolata.

sireno'
24-07-2007, 10:22
Ciao raga. Ho aggiornato i driver e ho messo 7.7 . E' porca miseria di nuovo ati CCC salta adesso net 3.0, istallato cosa puo essere?? . Ma si deve mettere tutto il pachetto dei driver ogni volta (driver-display, ati-CCC , wdm) .:help:

mtk
24-07-2007, 10:25
mi rendo conto che questo non e' il mio forum di appartenenza(dal momento che ho la nonna x1950xt e non la 2900..:D ),ma lo seguo per farmi un idea di eventuali miglioramenti/problemi/soluzioni per lo sviluppo della 2900.....premetto che non voglio criticare ne giudicare nessuno:rolleyes: ,ma la mia impressione e' che piu' che seguire tutti la stessa direzione(ottimizzazione di cio' che al momento si ha e eventualmente sperimentazione casalinga per limitare problemi noti come temperature eccessive)in questo forum ci sia una specie di disfattismo di alcuni(che la scheda non l hanno),una sorta di ricerca documentata sulle vie per il miglioramento della scheda(quelli che la scheda ce l hanno ed e' pure occata)e una sorta di controllo dall alto con derisione piu' o meno legittima di chi ha una scheda attualmente(e forse anche in "vista" dei prossimi titoli dx10)superiore........da curioso e probabile futuro cliente dx10 mi aspettavo un ambiente diverso,meno aria e piu' ciccia :D
saluti a tutti e continuate a scrivere,mi state documentando sulla 2900 e di questo vi ringrazio :)

TecnoWorld8
24-07-2007, 12:13
La situazione è triste perchè c'è sempre chi cerca di mettere a confronto pere con mele, senza godersi ciò che di buono ha... (e nello specifico, una scheda con un buon rapporto qualità/prezzo come R600).
Ogni casa fa le sue scelte, nVidia ha scelto di fare una scheda super dx9 (probabilmente mai ATI sarebbe riuscita a fare una scheda che va tanto forte in dx9.. :D ), ATI ha scelto (anni fà eh ;) ) di programmare un chip sulle specifiche dx10.. mettendoci un bel pò di tecnologia e transistor dentro (al pari di nVidia).

Chi ha fatto bene e chi male?

E' sempre il mercato a deciderlo...ora come ora potremmo pensare che ATI sia stata avventata ma chi può biasimare la sua scelta? :)
Io non lo farei sinceramente, anzi, la apprezzo particolarmente come da sempre apprezzo maggiormente la filosofia costruttiva di questa casa rispetto a quella di nVidia (le cui uniche schede che ho comprato ultimamente sono state 6600GT e 7600GT).
Anche se oggi G80 è più veloce di R600 nella maggioranza dei giochi. ^_^

tutto ciò sarebbe sacrosanto se R600 fosse uscita 8 mesi fa al prezzo che ha ora. io trovo la situazione triste perchè ATi è stata molto in ritardo e ha fornito un prodotto che - alla prova dei fatti - non supera una scheda che era sul mercato da 7 mesi. Questo lascia ad nVidia la possibilità di ritardare l'arrivo di un'evoluzione di G80, e lasciare sul mercato a prezzo elevato le soluzioni ormai "vecchie" (secondo gli standard cui eravamo ormai abituati, in cui cioè dopo 6/8 mesi c'era un refresh significativo dell'architettura).

Iantikas
24-07-2007, 12:26
tutto ciò sarebbe sacrosanto se R600 fosse uscita 8 mesi fa al prezzo che ha ora. io trovo la situazione triste perchè ATi è stata molto in ritardo e ha fornito un prodotto che - alla prova dei fatti - non supera una scheda che era sul mercato da 7 mesi. Questo lascia ad nVidia la possibilità di ritardare l'arrivo di un'evoluzione di G80, e lasciare sul mercato a prezzo elevato le soluzioni ormai "vecchie" (secondo gli standard cui eravamo ormai abituati, in cui cioè dopo 6/8 mesi c'era un refresh significativo dell'architettura).

ci manca solo "flop!" :D ...

...certo ke è veramente surreale...esce una skeda nuova ogni 6 mesi e tutti a lamentarsi ke le gpu si svalutano troppo in fretta e nn fai in tempo a comprarla ke già è obsoleta...ora ke stanno durando d + tutti a lamentarsi ke nn escono gpu nuove...

...anke se R600 fosse stato + prestante della Ultra e/o anke se fosse uscito senza ritardi secondo me attualmente c sarebbero le stesse identike skede ke c sono ora...a cambiare sarebbero stati solo i prezzi (e nn penso + bassi x nvidia ma + alti x ati ;) )...

...un refresh d G80 o d R600 sarebbe altamente controproducente e dispendioso x entrambe le aziende...x questo dico ke in ogni caso nn sarebbe uscita nessuna nuova gpu e si sarebbe cmq dovuto aspettare fine anno...ciao

Quoziente
24-07-2007, 12:28
Se volete dare un occhiata qui http://www.hwupgrade.it/forum/showthread.php?p=18042340&posted=1#post18042340 ho postato un paio di bench DX10

sireno'
24-07-2007, 12:35
Ciao raga. Ho aggiornato i driver e ho messo 7.7 . E' porca miseria di nuovo ati CCC salta adesso net 3.0, istallato cosa puo essere?? . Ma si deve mettere tutto il pachetto dei driver ogni volta (driver-display, ati-CCC , wdm) .:help:

UP Nessono puo spigarmi la procedura essatta per istallare sti maledetti drive:muro: :muro: :help:

Quoziente
24-07-2007, 13:05
Io ho installato solo i drivers (sotto Vista32), ho riavviato e mi è comparso un messaggio di errore relativo al CCC. :mad:
Risultato: ho dovuto scaricare il CCC 7.7 e installarlo...:mad:

Iantikas
24-07-2007, 13:07
UP Nessono puo spigarmi la procedura essatta per istallare sti maledetti drive:muro: :muro: :help:

hai sbagliato qualcosa...dal tuo post precedente nn si capice bene cosa hai fatto...

...nn'è ke x caso hai lasciato wdm e ccc dei vekki driver e aggiunto i "driver only" soltanto dei 7.7?

...cmq x risolvere fai cosi...usa cat uninstaller...elimina i file relativi ai 7.6 (e, se presenti, precedenti driver) nella cartella "C:\ati\support"...vai in "installazione applicazioni" e rimuovi, se presente (cat uninstaller nn li toglie) "avivo codec"...scaricati il pakketto completo dei 7.7 (o gli individuali se vuoi il ccc in ita, installando prima i driver, poi il ccc e infine i wdm)...

...seguendo questa procedura nn dovresti avere + problemi con il pannello ke scompare...(a me una volta capitò e così ho risolto...ed un altro utente con lo stesso problema ha risolto anke lui così)...ciao

sireno'
24-07-2007, 14:26
hai sbagliato qualcosa...dal tuo post precedente nn si capice bene cosa hai fatto...

...nn'è ke x caso hai lasciato wdm e ccc dei vekki driver e aggiunto i "driver only" soltanto dei 7.7?

...cmq x risolvere fai cosi...usa cat uninstaller...elimina i file relativi ai 7.6 (e, se presenti, precedenti driver) nella cartella "C:\ati\support"...vai in "installazione applicazioni" e rimuovi, se presente (cat uninstaller nn li toglie) "avivo codec"...scaricati il pakketto completo dei 7.7 (o gli individuali se vuoi il ccc in ita, installando prima i driver, poi il ccc e infine i wdm)...

...seguendo questa procedura nn dovresti avere + problemi con il pannello ke scompare...(a me una volta capitò e così ho risolto...ed un altro utente con lo stesso problema ha risolto anke lui così)...ciao


K grazie ho risolto :D Pero' che casino per istallarli . Ciao

JoeLatino
24-07-2007, 14:54
guardate un po' questi tests:eek:

http://www.ixbt.com/video3/rightmark2.shtml

TecnoWorld8
24-07-2007, 15:02
guardate un po' questi tests:eek:

http://www.ixbt.com/video3/rightmark2.shtml

è cmq solo un benchmark...

Konrad76
24-07-2007, 15:03
guardate un po' questi tests:eek:

http://www.ixbt.com/video3/rightmark2.shtml

Non sò se siano attendibili....verificherò stasera se gli score della ultra coincidono...però se fosse vero...c'è una bella differenza tra la h2900 e anche solo la gts anche nelle dx10 dove si diceva che la ati avrebbe fatto la differenza....Voi che ne dite??

A.L.M.
24-07-2007, 15:12
guardate un po' questi tests:eek:

http://www.ixbt.com/video3/rightmark2.shtml

Non sò se siano attendibili....verificherò stasera se gli score della ultra coincidono...però se fosse vero...c'è una bella differenza tra la h2900 e anche solo la gts anche nelle dx10 dove si diceva che la ati avrebbe fatto la differenza....Voi che ne dite??

Se ne parla nel thread ufficiale del benchmark di quell'articolo. Le prestazioni di R600 non scalano nè con la risoluzione nè in certi casi con l'AA (in pratica a 1680x1050 e a 800x600, così come con AA8x o senza AA, hai gli stessi risultati). Evidentemente ci sono dei problemi, ma non si sa quali. Bisognerebbe capire se il problema c'è pure con le nVidia. :boh:

@Konrad76:

Tu che hai una 8800 potresti fare i test con e senza AA e a risoluzioni differenti e vedere se cambiano i risultati?

davide155
24-07-2007, 15:14
guardate un po' questi tests:eek:

http://www.ixbt.com/video3/rightmark2.shtml

:eek: :eek: :eek:

Boia...........se fosse così mi sparo nelle balle.
Perchè il monopolio nvidia si affermerà, e mi toccherà aspettare la prox release di vga a natale :muro: :muro: :muro:

Konrad76
24-07-2007, 15:23
Se ne parla nel thread ufficiale del benchmark di quell'articolo. Le prestazioni di R600 non scalano nè con la risoluzione nè in certi casi con l'AA (in pratica a 1680x1050 e a 800x600, così come con AA8x o senza AA, hai gli stessi risultati). Evidentemente ci sono dei problemi, ma non si sa quali. Bisognerebbe capire se il problema c'è pure con le nVidia. :boh:

@Konrad76:

Tu che hai una 8800 potresti fare i test con e senza AA e a risoluzioni differenti e vedere se cambiano i risultati?

Volentieri......ho già scaricato il programmino.....se poi c'è qualcuno che ha voglia di farlo con una h2900, almeno vediamo se sono balle o meno...

johnson
24-07-2007, 15:57
guardate un po' questi tests:eek:

http://www.ixbt.com/video3/rightmark2.shtml

:eek:

praticamente r600 supera g80 solamente in alcuni test dei geometry shaders... spero siano solo problemi di driver.

Sennò si capirebbe perchè han fatto uscire la scheda nonostante tutti questi problemi. Perchè se avessero aspettato ancora un po' (leggi i primi test dx10) sarebbe stato ancora peggio :stordita:

Speriamo per noi consumatori che non sia così...

Chief
24-07-2007, 16:19
:eek:

praticamente r600 supera g80 solamente in alcuni test dei geometry shaders... spero siano solo problemi di driver.

Sennò si capirebbe perchè han fatto uscire la scheda nonostante tutti questi problemi. Perchè se avessero aspettato ancora un po' (leggi i primi test dx10) sarebbe stato ancora peggio :stordita:

Speriamo per noi consumatori che non sia così...

Torno a ripetere visto che non leggete i post queti test sono fatti con i piedi :doh: non si trovano i nessun modo, poi sicuramente va meglio una gtx in questo bench, ma non si trovano per nulla, non rispecchiano i risultati da me avuti.

Tidus.hw
24-07-2007, 16:19
:eek:

praticamente r600 supera g80 solamente in alcuni test dei geometry shaders... spero siano solo problemi di driver.

Sennò si capirebbe perchè han fatto uscire la scheda nonostante tutti questi problemi. Perchè se avessero aspettato ancora un po' (leggi i primi test dx10) sarebbe stato ancora peggio :stordita:

Speriamo per noi consumatori che non sia così...

suvvia, più che di driver io le vedo proprio come delle lacune di programmazione da parte dei programmatori di questo bench :asd:

la 2900xt nel peggiore dei casi (cioè in applicazioni rops e mtu limited) è appena appena sotto la 8800gts... se c'è così tanta differenza è colpa del software.

Quoziente
24-07-2007, 16:38
Volentieri......ho già scaricato il programmino.....se poi c'è qualcuno che ha voglia di farlo con una h2900, almeno vediamo se sono balle o meno...

Se vai nel thread ufficiale del bench io ho già fatto parecchi test (pagina 5) con la HD 2900 XT, mi piacerebbe che tu ripetessi alcuni dei miei test per vedere le differenze e per valutare se 'sto benedetto programmino di bench è affidabile o meno...

DjLode
24-07-2007, 17:01
suvvia, più che di driver io le vedo proprio come delle lacune di programmazione da parte dei programmatori di questo bench :asd:


In teoria dovrebbe essere HLSL semplicissimo. Quindi codice "standard" come mamma microsoft comanda. Almeno il vecchio rightmark era così.

-Feanor-
24-07-2007, 17:15
quoto leoneazzurro nel 3d del rightmark...spero non me ne voglia :D

In Rightmark sembra che i drivers ATI utilizzino le frequenze del 2D invece di quelle 3D. Questo se l'applicazione è windowed.

http://img165.imageshack.us/my.php?image=lollt7.jpg (tratto da B3D)

Il punteggio estremamente basso nel test fire è comunque una driver issue.

:read: :read: :read:

Scrambler77
24-07-2007, 17:26
suvvia, più che di driver io le vedo proprio come delle lacune di programmazione da parte dei programmatori di questo bench :asd:


Ora è colpa degli sviluppatori dei bench! :asd:

In teoria dovrebbe essere HLSL semplicissimo. Quindi codice "standard" come mamma microsoft comanda. Almeno il vecchio rightmark era così.

Quoto.

-Feanor-
24-07-2007, 17:28
Ora è colpa degli sviluppatori dei bench! :asd:

cmq a monte di tutto io questo rightmark non l'avevo mai sentito nominare...come gia avevo scritto nel mio primo post dell 3d di riferimento..:stordita:

Scrambler77
24-07-2007, 17:33
cmq a monte di tutto io questo rightmark non l'avevo mai sentito nominare...come gia avevo scritto nel mio primo post dell 3d di riferimento..:stordita:

Che io ricordi, di solito i bench più utilizzati sono sempre stati 3dmark, rightmark e aquamark...

Rightmark tra l'altro fa bench separati per diversi sottosistemi: cpu, memory-bandwidth, gpu e audio...

leoneazzurro
24-07-2007, 17:36
In teoria dovrebbe essere HLSL semplicissimo. Quindi codice "standard" come mamma microsoft comanda. Almeno il vecchio rightmark era così.

La realtà è che conta come si fa lo shader, più si fa pesare la parte ALU e più R600 "viaggia", mentre se si appesantisce il numero di accesso alle texture (filtrate, aggiungo io, perchè in point-sampling siamo lì) è favorito G80

-Feanor-
24-07-2007, 17:40
Che io ricordi, di solito i bench più utilizzati sono sempre stati 3dmark, rightmark e aquamark...

Rightmark tra l'altro fa bench separati per diversi sottosistemi: cpu, memory-bandwidth, gpu e audio...

aspetta aspetta..ora forse mi viene in mente che l'ho provato ancho io tanto tempo fa...era quello dove un test era rappresentato da un uomo fatto tutto di simil-particelle...e nell altro era tutto di fiamme...?? :stordita:

Iantikas
24-07-2007, 17:42
Che io ricordi, di solito i bench più utilizzati sono sempre stati 3dmark, rightmark e aquamark...

Rightmark tra l'altro fa bench separati per diversi sottosistemi: cpu, memory-bandwidth, gpu e audio...

rightmark nn ha mai avuto grande seguito...soprattutto come bench x le GPU...i + utilizzati son sempre stati i vari 3dmark e shadermark...tutti gli altri lo sono stati x momenti (tipo aquamark) o nn lo son stati mai :D (e x lo + utilizzati solo da un ristretto n° d siti)...ciao

+Lonewolf+
24-07-2007, 17:43
quindi fatemi capire la 2900 non scala al cambiare della risoluzione e ha problemi drivers? a me pare molto strano, sono un po' preoccupato, anche se mi pare poco possibile che la 2900 faccia talmente schifo da andare peggio di una 8500gt in alcuni test, è normale che ci siano dei problemi

Free Gordon
24-07-2007, 18:00
Qualcuno è riuscito a fare il test con le frequenze 3d?

Avete dei risultati?

×§ñåkê×
24-07-2007, 18:03
quindi fatemi capire la 2900 non scala al cambiare della risoluzione e ha problemi drivers? a me pare molto strano, sono un po' preoccupato, anche se mi pare poco possibile che la 2900 faccia talmente schifo da andare peggio di una 8500gt in alcuni test, è normale che ci siano dei problemi

al inizio mi pareva succedessa con i giochi piu vecchi, che non andasse a frequenze 3d, mentre qualche giorno fa ho provato anche con giochi oldissi in dx6 e passa cmq alle frq 3d

Scrambler77
24-07-2007, 18:23
Qualcuno è riuscito a fare il test con le frequenze 3d?

Avete dei risultati?

Forse mi sono perso un passaggio... ma con rivatuner non si possono forzare le frequenze 2D per portarle a quelle 3D giusto il tempo di fare i test?

Tidus.hw
24-07-2007, 18:33
Forse mi sono perso un passaggio... ma con rivatuner non si possono forzare le frequenze 2D per portarle a quelle 3D giusto il tempo di fare i test?

i voltaggi però rimangono gli stessi del 2d, con rivatuner non si possono ancora modificare..

×§ñåkê×
24-07-2007, 18:35
i voltaggi però rimangono gli stessi del 2d, con rivatuner non si possono ancora modificare..

ecco perche allora io forzando le frequenze a 725 mhz nel 2d si è bloccato tutto :doh: restavano i voltaggi del 2d

+Lonewolf+
24-07-2007, 19:42
ecco perche allora io forzando le frequenze a 725 mhz nel 2d si è bloccato tutto :doh: restavano i voltaggi del 2d

sfondi tutto se forzi le frequenze...ecco qual'è il baco;) ora sono + tranquillo:D

MonsterMash
24-07-2007, 19:53
Io ho controllato con il monitor di rivatuner, e le frequenze passano alle frequenze 3d quando partono i test. Anche se devo dire, facendo qualche test ho notato risultati molto diversi da quelli pubblicati in quella recensione.
Inoltre ho anche notato che in molti test non è vero che non scali al variare della risoluzione e dell'AA.
Ora mi metto e faccio un po' tutti i test, così ve li posso riassumere. Li farò a 1280x1024, che è la risoluzione che uso di solito nei giochi.
Non ho capito tra l'altro a che risoluzione sono stati fatti i test in quella recensione.

Ciao

M4R1|<
24-07-2007, 20:05
Io ho controllato con il monitor di rivatuner, e le frequenze passano alle frequenze 3d quando partono i test. Anche se devo dire, facendo qualche test ho notato risultati molto diversi da quelli pubblicati in quella recensione.
Inoltre ho anche notato che in molti test non è vero che non scali al variare della risoluzione e dell'AA.
Ora mi metto e faccio un po' tutti i test, così ve li posso riassumere. Li farò a 1280x1024, che è la risoluzione che uso di solito nei giochi.
Non ho capito tra l'altro a che risoluzione sono stati fatti i test in quella recensione.

Ciao

ok abbiamo capito che quella recensione è fatta col culllo :D :D

leoneazzurro
24-07-2007, 20:07
Io ho controllato con il monitor di rivatuner, e le frequenze passano alle frequenze 3d quando partono i test. Anche se devo dire, facendo qualche test ho notato risultati molto diversi da quelli pubblicati in quella recensione.
Inoltre ho anche notato che in molti test non è vero che non scali al variare della risoluzione e dell'AA.
Ora mi metto e faccio un po' tutti i test, così ve li posso riassumere. Li farò a 1280x1024, che è la risoluzione che uso di solito nei giochi.
Non ho capito tra l'altro a che risoluzione sono stati fatti i test in quella recensione.

Ciao

Il problema pare apparire con la release di driver usata nel test (e forse degli esemplari "precoci" di R600).

M4R1|<
24-07-2007, 20:10
Il problema pare apparire con la release di driver usata nel test (e forse degli esemplari "precoci" di R600).

ma allora mi chiedo: ma questi test sono stati fatti da fanboy nvidia, quindi assolutamente da nn tener in considerazione!

leoneazzurro
24-07-2007, 20:12
ma allora mi chiedo: ma questi test sono stati fatti da fanboy nvidia, quindi assolutamente da nn tener in considerazione!

Non so che dirti, il sito di solito non sembra di parte.

M4R1|<
24-07-2007, 20:16
Non so che dirti, il sito di solito non sembra di parte.

il problema è anche capirci qualcosa, perchè se si fa una traduzione russo-inglese con google viene fuori un casino. cmq aspetto test più attendibili e driver più maturi prima di esprimere un giudizio, e nn capisco perchè molti altri nn fanno come me:confused:

A.L.M.
24-07-2007, 20:49
Io ho controllato con il monitor di rivatuner, e le frequenze passano alle frequenze 3d quando partono i test. Anche se devo dire, facendo qualche test ho notato risultati molto diversi da quelli pubblicati in quella recensione.
Inoltre ho anche notato che in molti test non è vero che non scali al variare della risoluzione e dell'AA.
Ora mi metto e faccio un po' tutti i test, così ve li posso riassumere. Li farò a 1280x1024, che è la risoluzione che uso di solito nei giochi.
Non ho capito tra l'altro a che risoluzione sono stati fatti i test in quella recensione.

Ciao

Molto bene. Posta pure gli screen nel thread dedicato. :)
Se hai tempo cerca di fare i test con 2 risoluzioni diverse e con/senza AA. :)

Non so che dirti, il sito di solito non sembra di parte.

Infatti. Lo stesso Rightmark era un ottimo tool, tant'è vero che anche B3D lo usava a volte. C'è da dire che però uno degli articolisti di B3D ha posto qualche dubbio sull'effettiva utilità del test... :boh:

Originally Posted by Tim Murray
So, I poked around at the source to see what the GS numbers were doing.

The first test (Galaxy) has basically no amplification--it takes a point and splits it into two triangles. I'm not even convinced that the bottleneck is the GS.

The second test (Hyperlight) has much, much more amplification. However, it also has a ton of texturing. When the GS load is "balanced," I think you're seeing texturing bottlenecks. When the GS load is "heavy," I think you're seeing GS bottlenecks on the G80 and texturing bottlenecks on the R600.

So, I'm not convinced these are truly accurate assessments of relative GS-specific performance.

appleroof
24-07-2007, 20:58
no non propio sbandieravano la frase "guardate che le specifiche dx10 dicono soloche l'uotput deve risultare unificato poi come lavora al suo interno puo anche essere separato e fornire l'output finale unificato via dvr"
ovviamente se i pr nvidia mi dicono questa cosa nsomma uno pensa che g80 era separato per forza.

non ho voglia di andare a cercare le vecchie news al riguardo, se ne hai tu ti invito a farlo :)

;)


p.s.: altro esempio, dichiararono che avrebbero seguito la "politica Ati" dei tempi di rilascio dei driver: mai rispettata, questa dichiarazione...;)

Catan
24-07-2007, 21:04
non ho voglia di andare a cercare le vecchie news al riguardo, se ne hai tu ti invito a farlo :)

;)


p.s.: altro esempio, dichiararono che avrebbero seguito la "politica Ati" dei tempi di rilascio dei driver: mai rispettata, questa dichiarazione...;)

no no non era per criticarti ma davvero mi sembra strano a me risultava che non avessero sbandierato palesemente che g80 doveva essere a shader separati ma quando gli elo chiedevi ti rispondevano sempre con questa storia che solo l'output doveva essere unificato e come veniva realizzato poteva anche essere separato l'importante che la chiamata finale risultasse
c'era un bell'articolo su nvitalia dove veniva intervistato un pr nvidia e lui alla domanda "xè nvidia ha scelto una archidetturare separata al contrario di ati?"
e lui rispondeva propio con queste parole.
non hanno mai dato l'ufficialità di g80 a shader separati ma quando gli elo chiedevano rispondevano sempre cosi

appleroof
24-07-2007, 21:12
no no non era per criticarti ma davvero mi sembra strano a me risultava che non avessero sbandierato palesemente che g80 doveva essere a shader separati ma quando gli elo chiedevi ti rispondevano sempre con questa storia che solo l'output doveva essere unificato e come veniva realizzato poteva anche essere separato l'importante che la chiamata finale risultasse
c'era un bell'articolo su nvitalia dove veniva intervistato un pr nvidia e lui alla domanda "xè nvidia ha scelto una archidetturare separata al contrario di ati?"
e lui rispondeva propio con queste parole.
non hanno mai dato l'ufficialità di g80 a shader separati ma quando gli elo chiedevano rispondevano sempre cosi

Nessun problema (potresti pure criticarmi eh? :D :D ovviamente ne sei liberissimo ci mancherebbe) solo che al di là della questione in sè, quello che intendevo è che loro (e vale per ati, intel, amd, m$, samsung ecc ecc ecc) possono dichiarare quello che vogliono, all'esterno (per marketing, e così via) ma altro sono i veri piani interni (che comprendono varianti in corso d'opera a seconda delle "risposte" del concorrente, ad esempio).....

insomma, ero d'accordissimo con Tecnoworld: se ati avesse avuto una 2900xt più brillante in dx9 tanto almeno da pareggiare la 8800gtx, adesso quasi sicuramente avremmo già una 8900gtx, se l'avesse superata avremmo per dire una 8950gx2 e così via, insomma Nvidia ora come ora può prendersela comoda, non tocca ancora a lei la prima mossa (e moltissimo si deciderà secondo me non tanto con una 2900xtx "vera", ma prima ancora con il comportamento delle 2 top nei primi giochi dx10)

non a caso nel periodo in cui i rumors su R600 si rincorrevano, uscirono voci su una ipotetica 8900gtx (che poi fu messa nel cassetto a ridosso dell'uscita della 2900xt, quando ormai era definitivo il suo comportamento, e il suo posto lo prese la 8800ultra, più ""modesta"" rispetto a quella ipotetica 8900gtx)

MonsterMash
24-07-2007, 22:10
Ho fatto tutti i test del tool rightmark, a 1280x1024 e senza AA. Appena ho un po' di tempo faccio anche test ad altre risoluzioni e con AA.

Il mio sistema è costituito da un amd x2 a 3000 mhz (era a 3150, ma con questo caldo ho dovuto scendere un po' con il vcore...), 2 gb di ram e OS Windows Vista 64 bit.

Ecco una sintesi dei risultati:

Geometry Shader - Galaxy - Low - Balanced - No AA - 1280x1024 @100hz = 122.2
Geometry Shader - Galaxy - Medium - Balanced - No AA - 1280x1024 @100hz = 63.8
Geometry Shader - Galaxy - High - Balanced - No AA - 1280x1024 @100hz = 32.8
Geometry Shader - Galaxy - Low - Heavy - No AA - 1280x1024 @100hz = 131
Geometry Shader - Galaxy - Medium - Heavy - No AA - 1280x1024 @100hz = 68.3
Geometry Shader - Galaxy - High - Heavy - No AA - 1280x1024 @100hz = 35
Geometry Shader - Hyperlight - Low - Balanced - No AA - 1280x1024 @100hz = 105.3
Geometry Shader - Hyperlight - Low - Heavy - No AA - 1280x1024 @100hz = 244.3
Geometry Shader - Hyperlight - Medium - Balanced - No AA - 1280x1024 @100hz = 54.8
Geometry Shader - Hyperlight - Medium - Heavy - No AA - 1280x1024 @100hz = 131.1
Geometry Shader - Hyperlight - High - Balanced - No AA - 1280x1024 @100hz = 28.2
Geometry Shader - Hyperlight - High - Heavy - No AA - 1280x1024 @100hz = 67.3


Pixel Shader 4.0 - Arithmetic test - Mineral - No AA - 1280x1024 @100hz = 237.6
Pixel Shader 4.0 - Arithmetic test - Fire - No AA - 1280x1024 @100hz = 3.2


Pixel Shader 4.0 - Texturing test - Fur - SSAA Off - Low - No AA - 1280x1024 @100hz = 99.7
Pixel Shader 4.0 - Texturing test - Fur - SSAA Off - High - No AA - 1280x1024 @100hz = 59.7
Pixel Shader 4.0 - Texturing test - Fur - SSAA 4X - Low - No AA - 1280x1024 @100hz = 30.1
Pixel Shader 4.0 - Texturing test - Fur - SSAA 4X - High - No AA - 1280x1024 @100hz = 17.3
Pixel Shader 4.0 - Texturing test - Steep parallax mapping - SSAA Off - Low - No AA - 1280x1024 @100hz = 113.3
Pixel Shader 4.0 - Texturing test - Steep parallax mapping - SSAA Off - High - No AA - 1280x1024 @100hz = 49.3
Pixel Shader 4.0 - Texturing test - Steep parallax mapping - SSAA 4X - Low - No AA - 1280x1024 @100hz = 33.4
Pixel Shader 4.0 - Texturing test - Steep parallax mapping - SSAA 4X - High - No AA - 1280x1024 @100hz = 14.2


Vertex texture fetch - Earth - Low - Low - No AA - 1280x1024 @100hz = 827.5
Vertex texture fetch - Earth - Low - Medium - No AA - 1280x1024 @100hz = 381.4
Vertex texture fetch - Earth - Low - High - No AA - 1280x1024 @100hz = 201.2
Vertex texture fetch - Earth - High - Low - No AA - 1280x1024 @100hz = 590.7
Vertex texture fetch - Earth - High - Medium - No AA - 1280x1024 @100hz = 216.9
Vertex texture fetch - Earth - High - High - No AA - 1280x1024 @100hz = 106.8
Vertex texture fetch - Waves - Low - Low - No AA - 1280x1024 @100hz = 553.5
Vertex texture fetch - Waves - Low - Medium - No AA - 1280x1024 @100hz = 212
Vertex texture fetch - Waves - Low - High - No AA - 1280x1024 @100hz = 104.7
Vertex texture fetch - Waves - High - Low - No AA - 1280x1024 @100hz = 368.3
Vertex texture fetch - Waves - High - Medium - No AA - 1280x1024 @100hz = 118.2
Vertex texture fetch - Waves - High - High - No AA - 1280x1024 @100hz = 56.1


Salta subito all'occhio il test: Pixel Shader 4.0 - Arithmetic test, dove fa appena 3.2 fps, l'unico in cui (apparentemente senza motivo) fa frame rate così bassi.


Ciao!

MonsterMash
24-07-2007, 22:22
Volevo aggiungere che in effetti, guardando meglio quei grafici sul sito russo, non si discostano molto dai miei risultati. Che dire, avevo visto male...

Ciao

Scrambler77
24-07-2007, 23:15
Volevo aggiungere che in effetti, guardando meglio quei grafici sul sito russo, non si discostano molto dai miei risultati. Che dire, avevo visto male...

Ciao

Quel risultato (3.2fps) è certamente un problema software...

Iantikas
24-07-2007, 23:52
Volevo aggiungere che in effetti, guardando meglio quei grafici sul sito russo, non si discostano molto dai miei risultati. Che dire, avevo visto male...

Ciao


quei risultati a quanto ho capito son fatti a 2560x1600 (usano un Dell 30")...ciao

+Lonewolf+
25-07-2007, 16:01
Quel risultato (3.2fps) è certamente un problema software...

beh, sicuramente...non vedo come una 8500gt possa andare meglio:asd:

cmq ecco che come al solito non ottimizzano minimamente per ati

appleroof
25-07-2007, 16:41
beh, sicuramente...non vedo come una 8500gt possa andare meglio:asd:

cmq ecco che come al solito non ottimizzano minimamente per ati

oppure è ati che non è ancora ottimizzata.....

Scrambler77
25-07-2007, 16:50
oppure è ati che non è ancora ottimizzata.....

Quoto... a questo punto non so più se finiranno mai di ottimizzare, visto che pare che ogni pezzo di software debba essere ottimizzato ad-hoc per quella architettura.

Pat77
25-07-2007, 17:01
oppure è ati che non è ancora ottimizzata.....

Credo che si concentrino sui giochi prima, per poi dare qualche gratificazione anche nei bench.

Defragg
25-07-2007, 17:17
oppure è ati che non è ancora ottimizzata.....

da quello che ho letto da un commento di yossarian ( :ave: ) un architettura come quella di R600 rimane un cantiere aperto

eccolo qui, postato dal buon Ahtlon 64 3000+
http://www.hwupgrade.it/forum/showpost.php?p=18021656&postcount=7598

ale0bello0pr
25-07-2007, 17:25
da quello che ho letto da un commento di yossarian ( :ave: ) un architettura come quella di R600 rimane un cantiere aperto

eccolo qui, postato dal buon Ahtlon 64 3000+
http://www.hwupgrade.it/forum/showpost.php?p=18021656&postcount=7598

e quando lo chiudiamo questo cantiere? che gli faccio pagare le penali....:banned:
:asd:

Garagolo
25-07-2007, 17:28
scusate ma cosa intendete per "cantiere aperto"???? significa che questa è una shceda tutta da scoprire e da sfruttare??? o che non se ne conoscono ancora le reali potenzialita'??? :confused: :confused:

ATi7500
25-07-2007, 17:32
scusate ma cosa intendete per "cantiere aperto"???? significa che questa è una shceda tutta da scoprire e da sfruttare??? o che non se ne conoscono ancora le reali potenzialita'??? :confused: :confused:

significa che probabilmente non finiranno MAI di ottimizzarla..il concetto era stato abbozzato gia' in R5x0, ma con R6x0 secondo me hanno esagerato. E' l'hardware che deve stare dietro al software, non viceversa.

bYeZ!

appleroof
25-07-2007, 17:37
Quoto... a questo punto non so più se finiranno mai di ottimizzare, visto che pare che ogni pezzo di software debba essere ottimizzato ad-hoc per quella architettura.

significa che probabilmente non finiranno MAI di ottimizzarla..il concetto era stato abbozzato gia' in R5x0, ma con R6x0 secondo me hanno esagerato. E' l'hardware che deve stare dietro al software, non viceversa.

bYeZ!

quoto

-Feanor-
25-07-2007, 17:49
da quello che ho letto da un commento di yossarian ( :ave: ) un architettura come quella di R600 rimane un cantiere aperto

eccolo qui, postato dal buon Ahtlon 64 3000+
http://www.hwupgrade.it/forum/showpost.php?p=18021656&postcount=7598

scusate l'OT ma come mai avete tutti cosi grande rispetto e timore reverenziale verso yossarian...io non ho avuto il piacere di "conoscerlo"...vedo che gli ultimi suoi messaggi risalgono al 3d Aspettando 2900xt...come mai poi è sparito...??

mordsiger
25-07-2007, 17:51
ragazzi... sono nuovo del forum, qualcuno ha provato la 2900 con nwn2 e i catalyst 7.7 ?? tutti i bench che ho trovato in rete a riguardo sono con versione di nwn2 vacchia e i primi driver.... :mc:

carver
25-07-2007, 17:51
ORDINATA!!!!!!!!!!:D
Arriva venerdi'!!!!!

ora non mi rimane che vendere la 1900!!!

ps raga funziona overclocker sulla 2900? x aumentare la ventola al 100% mentre gioco!

Defragg
25-07-2007, 17:52
scusate l'OT ma come mai avete tutti cosi grande rispetto e timore reverenziale verso yossarian...io non ho avuto il piacere di "conoscerlo"...vedo che gli ultimi suoi messaggi risalgono al 3d Aspettando 2900xt...come mai poi è sparito...??

perchè una volta letto un suo post, non ne puoi più fare a meno...un po' come la masturbazione :O
inoltre è sempre molto disponibile e pronto a spiegarti per bene le cose :)
è sparito perchè ha un macello di lavoro ;)

Defragg
25-07-2007, 17:53
ps raga funziona overclocker sulla 2900? x aumentare la ventola al 100% mentre gioco!

PAZZO! :asd:

-Feanor-
25-07-2007, 17:56
ragazzi... sono nuovo del forum, qualcuno ha provato la 2900 con nwn2 e i catalyst 7.7 ?? tutti i bench che ho trovato in rete a riguardo sono con versione di nwn2 vacchia e i primi driver.... :mc:

Benvenuto...!!!!!!! :D
interesserebbe anche a me in effetti....una ventina di pagine fa ho fatto QUESTO POST (http://www.hwupgrade.it/forum/showpost.php?p=17925408&postcount=7212) ...ma nessuno mi ha postato dei test propri...:(

mordsiger
25-07-2007, 18:03
giusto x la cronaca... dopo vari test fatti da me e altri... nwn2 si ciuccia ben 600Mb di VRAM !!! :eek: che ci crediate o no col mio pc in firma nwn2 nn riesco a tenerlo al max !!!! per questo mi piacerebbe sapere della 2900

appleroof
25-07-2007, 18:15
giusto x la cronaca... dopo vari test fatti da me e altri... nwn2 si ciuccia ben 600Mb di VRAM !!! :eek: che ci crediate o no col mio pc in firma nwn2 nn riesco a tenerlo al max !!!! per questo mi piacerebbe sapere della 2900

ma se lo tenevo al max a 1280x1024 con la mia 7800gtx256mb???? :confused:

mordsiger
25-07-2007, 18:22
al max con aa 8x, aniso 16x, vsync+triple buffer, trasparency multisampling, aa gamma, ombre complete con 2048-4096-4096, riflessi e rifrazione acqua, texture alta e via dicendo ??? ovviamente avendo la linearità + assoluta ???

zorco
25-07-2007, 18:23
ORDINATA!!!!!!!!!!:D
Arriva venerdi'!!!!!

ora non mi rimane che vendere la 1900!!!

ps raga funziona overclocker sulla 2900? x aumentare la ventola al 100% mentre gioco!

ottimo..

certo che funziona l'overclok,ma se setti la ventola al 100% ti assicuro che ti viene un coccolone :D

nico88desmo
25-07-2007, 18:23
scusate l'OT ma come mai avete tutti cosi grande rispetto e timore reverenziale verso yossarian...io non ho avuto il piacere di "conoscerlo"...vedo che gli ultimi suoi messaggi risalgono al 3d Aspettando 2900xt...come mai poi è sparito...??

Si sà che laurea possiede?

appleroof
25-07-2007, 18:28
al max con aa 8x, aniso 16x, vsync+triple buffer, trasparency multisampling, aa gamma, ombre complete con 2048-4096-4096, riflessi e rifrazione acqua, texture alta e via dicendo ??? ovviamente avendo la linearità + assoluta ???

no per max intendo i dettagli del gioco, il resto usavo aa4x af8x no v-sync

Catan
25-07-2007, 18:34
ORDINATA!!!!!!!!!!:D
Arriva venerdi'!!!!!

ora non mi rimane che vendere la 1900!!!

ps raga funziona overclocker sulla 2900? x aumentare la ventola al 100% mentre gioco!

si clokka bene anche lasciando le impostazioni della ventola a default.
la mia ad aria sta tranquilla a 800-1000 non superando mai i 72°.

al 100% sembra una turbina.

anche se questa è una vga che scala molto con le temperature.
la mia sotto liquido fa i 900mhz per i bench e 875 stabile
mentre ad aria a volte capita che anche a 825 si blocca.

mordsiger
25-07-2007, 18:38
ah.....ecco.....poi le ombre (che sono la nota dolente di nwn2 in pesantezza) con la vga a 256Mb nn ti fa proprio impostare le ombre a 2048-4096-4096 quindi sicuramente le avevi + basse.... in + eri a 1280x1024....

a me piace, anzi piacerebbe, giocare tutto a palla e fluido.... tutto a palla come ti ho detto prima lo riesco a mettere ma è ingiocabile a livello di fps....però graficamente è spalato

Defragg
25-07-2007, 18:44
si clokka bene anche lasciando le impostazioni della ventola a default.
la mia ad aria sta tranquilla a 800-1000 non superando mai i 72°.

al 100% sembra una turbina.

anche se questa è una vga che scala molto con le temperature.
la mia sotto liquido fa i 900mhz per i bench e 875 stabile
mentre ad aria a volte capita che anche a 825 si blocca.

hai provato a tirarla con la ventola a manetta?

mordsiger
25-07-2007, 18:46
io prima avevo una 1950xtx .... ho comprato il sistema a liquido per la disperazione del rumore che faceva la ventola al 100%... ma la 2900 ne fa di + di rumore ?

-Feanor-
25-07-2007, 19:26
Si sà che laurea possiede?

ma chi...?? yossarian...??? e io che ne so...?? :fagiano: :stordita:

-Feanor-
25-07-2007, 19:28
perchè una volta letto un suo post, non ne puoi più fare a meno...un po' come la masturbazione :O
inoltre è sempre molto disponibile e pronto a spiegarti per bene le cose :)
è sparito perchè ha un macello di lavoro ;)

:asd: :asd: :asd: ....mi spiace non averlo "conosciuto" allora...:O

Athlon 64 3000+
25-07-2007, 19:55
io avevo solo postato un mess privato per gli avevo chiesto delle informazioni riguardo R600.
Vi posto anche un'altra risposta che mi ha dato pochi giorni fa sempre riguardo l'R600:

c'è la circuiteria dedicata nelle rop's ma non per fare l'operazione di resolve, ossia quella che nell'AA classico è una semplice interpolazione lineare. Questo perchè le modalità di AA previste dalle dx10 sono di tipo non lineare e la stessa applicazione di AA+HDR, se l'AA è eseguito mediante interpolazione lineare, in molti casi non dà risultati soddisfacenti. Quindi le rop's (o RBE che dir si voglia) effettuano il campionamento dei subpixel ma le operazioni matematiche (lineari e non) sono demandate allo shader core.
La difficoltà principale di R600 è quella di massimizzare il parallelismo; questo perchè, avendo unità di calcolo di tipo VLIW è molto più dipendente di un'architettura superscalare pura (come quella di G80) dai driver. Una volta ottimizzata questa operazione (ma bada bene, in questo caso l'ottimizzazione va fatta applicazione per applicazione), la potenza di calcolo per eseguire sia le operazioni tipiche dello shader core che quelle matematiche, relative all'applicazione dell'AA è più che sufficiente.

Dovrebbe essere abbastanza chiarificatrice anche riguardo a come effettua il calcolo dell'AA.
Spero che yoss ci venga a rispondere anche su questa discussione perchè come voi sono molto curioso di conoscere a fondo l'architettura di R600

-Feanor-
25-07-2007, 20:21
comparativa tra cata 7.6 e 7.7.......marca picche...!!! :(
http://www.tweaktown.com/articles/1145/1/page_1_introduction/index.html

webbuffa
25-07-2007, 20:40
Final Thoughts:

This is one of the worst driver sets we have seen in some time. Not only did performance go nowhere on our lineup of games, but Company of Heroes actually took a small step backwards.

:) Molto Molto bene.

+Lonewolf+
25-07-2007, 20:43
We will keep an eye out for the 7.8s over the next four weeks and hope that AMD have decided to extract some more performance out of the HD range. The HD2600XT is so close to being the mid-range card to get when compared to the 8600GT, but it just needs a bit more performance to take it over the line.
;)

webbuffa
25-07-2007, 20:47
We will keep an eye out for the 7.8s over the next four weeks and hope that AMD have decided to extract some more performance out of the HD range. The HD2600XT is so close to being the mid-range card to get when compared to the 8600GT, but it just needs a bit more performance to take it over the line.
;)

:) Anche se pensandoci credo sia più un driver per Vista... visto che ci sono molti miglioramenti, soprattutto grafici, nei giochi directx 10... Per le prestazioni che addirittua scendono :eek: tra 7.6 e 7.7 c'è da fare una comparativa tra filtri on e off... altrimenti così non ha un valore concreto, almeno ai miei occhi...

Pat77
25-07-2007, 21:00
Corregono Lost Planet, la nebbia in Lost Coast, con 8x aa in Supreme Commander va da dio ;)

fukka75
25-07-2007, 21:00
:) Molto Molto bene.

:confused: :confused:
worst vuol dire peggiore :mbe:

webbuffa
25-07-2007, 21:02
:confused: :confused:
worst vuol dire peggiore :mbe:

:) Sarcasmo amico mio :D Ironia pre sclero anzi.

+Lonewolf+
25-07-2007, 21:18
:) Sarcasmo amico mio :D Ironia pre sclero anzi.

dicevano la verità cmq...

webbuffa
25-07-2007, 21:19
dicevano la verità cmq...

:) Non insistere altrimenti il nervoso sale... dovevamo progredire... :)

+Lonewolf+
25-07-2007, 21:20
:D :) Non insistere altrimenti il nervoso sale... dovevamo progredire... :)

ok:)

i migliori dunque

webbuffa
25-07-2007, 21:24
:D

ok:)

i migliori dunque

:D

-Feanor-
25-07-2007, 21:33
vedo che quella comparativa vi è piaciuta :asd:....prego...;)

webbuffa
25-07-2007, 22:04
vedo che quella comparativa vi è piaciuta :asd:....prego...;)

:stordita: Ho trovato la fonte della disfatta Ati! Le memorie CL7 montate nel pc del test :eek:
















:p Non bannatemi pls.

+Lonewolf+
25-07-2007, 22:42
scusate la domanda ma quali dei 4 modi di fare AA è migliore...in parole povere è meglio un 4x AA edge detect, wide tent, box o narrow tent e quale ciuccia + prestazioni??

+Lonewolf+
25-07-2007, 22:44
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD

naturalmente mi sono rotto le balle di aspettare

3DMark79
25-07-2007, 22:51
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD

naturalmente mi sono rotto le balle di aspettare

Non ti biasimo!:muro:

Chief
25-07-2007, 22:57
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD

naturalmente mi sono rotto le balle di aspettare

Certo mica sei l'unico dopo due mesi :muro: mi dici dove l'hai presa sta notizia? sono curioso di leggerla anche io

webbuffa
25-07-2007, 23:10
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD

naturalmente mi sono rotto le balle di aspettare

:P linka linka!

+Lonewolf+
25-07-2007, 23:16
:P linka linka!

hai presente la comparativa che feanor ha postato prima? guarda l'ultima pag

Pat77
25-07-2007, 23:24
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD

naturalmente mi sono rotto le balle di aspettare

Ma esattamente dove vuoi che migliori, tanto per capire cosa giochi e dove non ti convince per via dei driver?

+Lonewolf+
25-07-2007, 23:32
Ma esattamente dove vuoi che migliori, tanto per capire cosa giochi e dove non ti convince per via dei driver?

gioco a tutto e non mi convince il fatto che tutto poggia sullo shader core, voglio le RoPs funzionanti....non mi va che la VGA perda moltissimi frame a filtri attivi, spero si sbrighino a riscrivere i drivers daccapo

webbuffa
25-07-2007, 23:36
gioco a tutto e non mi convince il fatto che tutto poggia sullo shader core, voglio le RoPs funzionanti....non mi va che la VGA perda moltissimi frame a filtri attivi, spero si sbrighino a riscrivere i drivers daccapo

:rolleyes: Esattamente! Questa, che dir si voglia, è una scheda top di gamma e deve andare quanto meno come una GTS con filtri attivi e mai meno... se poi con i driver ottimizzati ci scappa il miracolo è tutto guadagnato, ma almeno ci diano la soddisfazione di non perdere prestazioni, eccessivamente, con filtraggio attivo. :mad:

Chief
25-07-2007, 23:39
gioco a tutto e non mi convince il fatto che tutto poggia sullo shader core, voglio le RoPs funzionanti....non mi va che la VGA perda moltissimi frame a filtri attivi, spero si sbrighino a riscrivere i drivers daccapo

Concordo a pieno oggi ho eseguito dei test su oblivion il gioco senza filtri vola non avevo mai visto oblivion girare così appena si attivano i filtri e per la precisione l'AA si un calo di prestazioni assurdo e non giustificato, quindi si vede che ste Rops su questa scheda stanno per bellezza :rolleyes:

Chief
25-07-2007, 23:42
Ma esattamente dove vuoi che migliori, tanto per capire cosa giochi e dove non ti convince per via dei driver?

Si deve migliorare la gestione dei filtri tutto qua L'AA è al primo posto si dice che la prossimo release dei driver dovrebbe migliorare un po la situazione della serie HD, lo spero guarda, altrimenti mi tocca giocare senza filtri fin quando non migliorano :muro:

webbuffa
25-07-2007, 23:42
Concordo a pieno oggi ho eseguito dei test su oblivion il gioco senza filtri vola non avevo mai visto oblivion girare così appena si attivano i filtri e per la precisione l'AA si un calo di prestazioni assurdo e non giustificato, quindi si vede che ste Rops su questa scheda stanno per bellezza :rolleyes:

:) Potresti chiarirmi le prestazioni che ottieni ? Io con filtro a 24x e HDR ON faccio dai 20 ai 50 fps, 50 negli interni naturalmente... :) Per me queste sono buone prestazioni per te, invece, ottime potrebbero essere sempre sopra ai 60 negli esterni...

Chief
25-07-2007, 23:51
:) Potresti chiarirmi le prestazioni che ottieni ? Io con filtro a 24x e HDR ON faccio dai 20 ai 50 fps, 50 negli interni naturalmente... :) Per me queste sono buone prestazioni per te, invece, ottime potrebbero essere sempre sopra ai 60 negli esterni...

Il problema e che testando il gioco in una parte della foresta fitta mi sono accorto che attivando il filtro aa4x e AF16x il calo delle prestazioni è notevole es. se faccio senza filtri in una zona della foresta 70 attivando aa4x e af16x tocco i 30 in alcuni punti non mi smìembra giustificato affatto questo calo esoso di prestazioni :rolleyes:

A.L.M.
25-07-2007, 23:55
scusate la domanda ma quali dei 4 modi di fare AA è migliore...in parole povere è meglio un 4x AA edge detect, wide tent, box o narrow tent e quale ciuccia + prestazioni??

Prestazioni (dal migliore al peggiore):
- box filter (cioè nessun filtro aggiuntivo al normale MSAA)
- narrow tent
- wide tent
- edge detect

Qualità:
- edge detect
- i tent filters hanno una qualità migliore dell'AA normale a volte, in altre potrebbero mostrare un blurring un po' accentuato
- box filter (anche se quando i tent filter causano blurring diviene superiore).

+Lonewolf+
26-07-2007, 00:02
Prestazioni (dal migliore al peggiore):
- box filter (cioè nessun filtro aggiuntivo al normale MSAA)
- narrow tent
- wide tent
- edge detect

Qualità:
- edge detect
- i tent filters hanno una qualità migliore dell'AA normale a volte, in altre potrebbero mostrare un blurring un po' accentuato
- box filter (anche se quando i tent filter causano blurring diviene superiore).

grazie mille;)

Catan
26-07-2007, 00:57
Prestazioni (dal migliore al peggiore):
- box filter (cioè nessun filtro aggiuntivo al normale MSAA)
- narrow tent
- wide tent
- edge detect

Qualità:
- edge detect
- i tent filters hanno una qualità migliore dell'AA normale a volte, in altre potrebbero mostrare un blurring un po' accentuato
- box filter (anche se quando i tent filter causano blurring diviene superiore).

già anche se io tra queste sconsiglierei propio il narrow tent blurra che è una meraviglia mentre il wide usando un numero superiore di zone di tent l'effetto è meno accentuato.
anche se personalmente io preferisco sempre usare il solo MSAA le modalità ibride non mi sono mai piaciute partendo dal quinqux di nvidia ai vari tent.
anche se oggettivamente l'aa migliore ,e supratutto il vero AA quello con le vere 2 AA maiuscole, è sempre il Super Sampling ,SSMA, peccato che dai tempi della 3dfx che non si usi ma ancora adesso a volte con hl2 sul muletto ocn la 5500 se metto un aa2x è notevolmente superiore all'aa 2x di ati o nvidia in msaa.

×§ñåkê×
26-07-2007, 01:15
non è che siete filtri dipendenti :p ?

io sinceramente non sento la necessita del filtro AA, che aumenti la qualità del immagine non lo nego, ma non mi faccio problemi se la scheda non c'è la fa.. (come in oblivion) lo disattivo senza lamentarmi ;)

Free Gordon
26-07-2007, 02:12
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD
naturalmente mi sono rotto le balle di aspettare


ti sei rotto le balle di aspettare la sfida con la GTX? :D

perchè in realtà non capisco che cosa tu ti sia rotto di aspettare.. :confused:

Quoziente
26-07-2007, 07:54
AMD dichiara ufficialmente che con i 7.8 si dedicherà alla serie HD
naturalmente mi sono rotto le balle di aspettare

hai presente la comparativa che feanor ha postato prima? guarda l'ultima pag

Scusa se mi permetto di contraddirti ma per quel poco che conosco l'inglese leggo:
"We will keep an eye out for the 7.8s over the next four weeks and hope that AMD have decided to extract some more performance out of the HD range. The HD2600XT is so close to being the mid-range card to get when compared to the 8600GT, but it just needs a bit more performance to take it over the line."

Che più o meno significa:
"Terremo un occhio sui 7.8 nelle prossime 4 settimane sperando che AMD abbia deciso di incrementare le performance delle schede HD. La HD2600XT è vicina ad essere la scheda mid-range da comprare se confrontata con la 8600GT, ma ha bisogno solo di un po' più di performance per portarla "sopra la linea" :stordita:

Defragg
26-07-2007, 08:05
non è che siete filtri dipendenti :p ?

io sinceramente non sento la necessita del filtro AA, che aumenti la qualità del immagine non lo nego, ma non mi faccio problemi se la scheda non c'è la fa.. (come in oblivion) lo disattivo senza lamentarmi ;)

a dirla tuttà dell'AA si può fare a meno, specie se si attiva il motion blur, ma dell'anisotropico io personalmente non riesco a farne a meno :D

Quoziente
26-07-2007, 08:25
a dirla tuttà dell'AA si può fare a meno, specie se si attiva il motion blur, ma dell'anisotropico io personalmente non riesco a farne a meno :D

Concordo! Più si sale con la risoluzione meno si sente il bisogno dell'AA a mio avviso.
Ehm... cos'é che fa l'anisotropico? :)

Tidus.hw
26-07-2007, 08:41
a dirla tuttà dell'AA si può fare a meno, specie se si attiva il motion blur, ma dell'anisotropico io personalmente non riesco a farne a meno :D

già, in lost planet faccio fatica a vedere le seghettature :asd:

Defragg
26-07-2007, 08:44
Ehm... cos'é che fa l'anisotropico? :)

E' una tecnica di filtraggio usata per rimuovere l'effetto di "sbiadimento" nelle superfici inclinate sulle quali vengono applicate le texture

http://www.garry.tv/img/cssource/texture-filtering.jpg

Pat77
26-07-2007, 08:52
gioco a tutto e non mi convince il fatto che tutto poggia sullo shader core, voglio le RoPs funzionanti....non mi va che la VGA perda moltissimi frame a filtri attivi, spero si sbrighino a riscrivere i drivers daccapo

Si ma ti concentrerai su qualcosa, io in supreme commander vado a 8x tranquillamente, così come Company Of Heroes, le rop's non faranno l'AA ma saranno sempre gli shaders, è una scelta progettuale.
Sto anche giocando Titan Quest su una scheda molto simile, e anche qui con AA non ho problemi.
Penso sia una questione specifica da gioco a gioco, per un beneficio generalizzato ovunque, non credo basterebbero 2 anni di codice.

zorco
26-07-2007, 08:57
Concordo! Più si sale con la risoluzione meno si sente il bisogno dell'AA a mio avviso.
Ehm... cos'é che fa l'anisotropico? :)
serve a migliorare la qualità delle texture in lontananza...

Pat77
26-07-2007, 08:58
a dirla tuttà dell'AA si può fare a meno, specie se si attiva il motion blur, ma dell'anisotropico io personalmente non riesco a farne a meno :D

Dipende dal gioco imho, in un RTS è molto più importante il FSAA, in un fps l'anisotropico, in un gioco con visuale alla diablo il fsaa, in un gioco di guida di nuovo l'anisotropico.

Io tendo a utilizzare un 2x 16x ad esempio in quake 4, mentre un 8x 0x negli Rts.

zorco
26-07-2007, 09:01
Si ma ti concentrerai su qualcosa, io in supreme commander vado a 8x tranquillamente, così come Company Of Heroes, le rop's non faranno l'AA ma saranno sempre gli shaders, è una scelta progettuale.
Sto anche giocando Titan Quest su una scheda molto simile, e anche qui con AA non ho problemi.
Penso sia una questione specifica da gioco a gioco, per un beneficio generalizzato ovunque, non credo basterebbero 2 anni di codice.
uno dei giochi che sto avendo un pò di difficoltà a farlo girare decentemente con AA attivo a 4x è Colin McRae deart,veramente un mattone ottimizzato da cani:rolleyes:

Pat77
26-07-2007, 09:11
uno dei giochi che sto avendo un pò di difficoltà a farlo girare decentemente con AA attivo a 4x è Colin McRae deart,veramente un mattone ottimizzato da cani:rolleyes:

Prova intanto ad abbassare il dettaglio del gioco, ombre soprattutto, a me la demo faceva circa 35 fps di media, se vuoi abilitare il 4x, è uscita ieri la patch 1.2 l'hai provata?
Io l'ho installato sul secondo pc ma non uso il fsaa e utilizzo le migliori impostazioni possibili sul mio hw, faccio circa 30 fps di media ed è sempre fluido, con una resa molto buona.

zorco
26-07-2007, 09:20
Prova intanto ad abbassare il dettaglio del gioco, ombre soprattutto, a me la demo faceva circa 35 fps di media, se vuoi abilitare il 4x, è uscita ieri la patch 1.2 l'hai provata?
Io l'ho installato sul secondo pc ma non uso il fsaa e utilizzo le migliori impostazioni possibili sul mio hw, faccio circa 30 fps di media ed è sempre fluido, con una resa molto buona.
no non ho provata la patch,ora faccio qualche prova magari abbasso un pò il dettagli..

cmq anche io faccio di media circa 35fps ma il gioco non mi dà la senzazione di essere fluido...

Defragg
26-07-2007, 09:23
Dipende dal gioco imho, in un RTS è molto più importante il FSAA, in un fps l'anisotropico, in un gioco con visuale alla diablo il fsaa, in un gioco di guida di nuovo l'anisotropico.

Io tendo a utilizzare un 2x 16x ad esempio in quake 4, mentre un 8x 0x negli Rts.

io l'AF lo tengo sempre attivo a 16x, visto che non prende molti frame, mentre l'AA lo attivo quando posso stare sempre sopra i fatidici 30fps, e 4x o 6x

TecnoWorld8
26-07-2007, 09:31
non è che siete filtri dipendenti :p ?

io sinceramente non sento la necessita del filtro AA, che aumenti la qualità del immagine non lo nego, ma non mi faccio problemi se la scheda non c'è la fa.. (come in oblivion) lo disattivo senza lamentarmi ;)

se adesso iniziamo a dire che possiamo pure rinunciare ai filtri, con una scheda di questo livello, siamo messi bene...oh, non si discute che vada a gusti, ma io credo che se si spendono quasi 400€ in una scheda, allora si deve pretendere di mettere tutto al massimo e FSAA ALMENO con i giochi sul mercato già da qualche tempo, e che diamine...

Pat77
26-07-2007, 10:18
io l'AF lo tengo sempre attivo a 16x, visto che non prende molti frame, mentre l'AA lo attivo quando posso stare sempre sopra i fatidici 30fps, e 4x o 6x

In un RTS con visuale dall'alto la differenza tra Af sì e no imho è nulla, per questo non l'attivo, se ci fosse un beneficio che giustificasse quei frame persi, l'attiverei ;)

Catan
26-07-2007, 10:24
io l'AF lo tengo sempre attivo a 16x, visto che non prende molti frame, mentre l'AA lo attivo quando posso stare sempre sopra i fatidici 30fps, e 4x o 6x

personalmente io l'af lo setto sempre a 8x anche xè la differenza tra il 16x è minimale(se ci fai caso ad occhio nudo nn si vede) e mi risparmio sempre quei 2 o 3 fps.
uguale con l'aa solitamente sia con le nvidia che con le ati uso solo un msaa nativo senza commistioni di altri effetti per evitare blurring eccessivi.
fondamentelamente su r600 o uso il 4x normale oppure se posso passo all'edge detect le modalità tent nn le prendo manco in considerazione.

Defragg
26-07-2007, 10:39
In un RTS con visuale dall'alto la differenza tra Af sì e no imho è nulla, per questo non l'attivo, se ci fosse un beneficio che giustificasse quei frame persi, l'attiverei ;)

già, l'AF lo si nota maggiormente quando si ha a che fare con supefici oblique, quindi in RTS e GDR isometrici non serve proprio, ma io non gioco a RTS e GDR isometrici :p
personalmente io l'af lo setto sempre a 8x anche xè la differenza tra il 16x è minimale(se ci fai caso ad occhio nudo nn si vede) e mi risparmio sempre quei 2 o 3 fps.
uguale con l'aa solitamente sia con le nvidia che con le ati uso solo un msaa nativo senza commistioni di altri effetti per evitare blurring eccessivi.
fondamentelamente su r600 o uso il 4x normale oppure se posso passo all'edge detect le modalità tent nn le prendo manco in considerazione.

fatto una prova ora, da fermo la differenza si nota, in movimento no :)
per l'AA, l'ho provato stamattina su un pc che ho assemblato le varie modalità di AA, l'edge è qualcosa di spettacolare, il narrow e il wide invece non sono molto "belli" e danno quell'effetto di blurring che può dare fastidio

webbuffa
26-07-2007, 10:50
:O Io invece più nOObbamente metto tutto full AA24x e AF16 in ogni gioco che lo permette...

:cool: Raga date un occhio al sito in firma... spero vi piaccia :) è ancora da completare pero' tra oggi e domani dovrei mettere i test, soprattutto di Right Mark molto dettagliati con grafici e differenze.

Ciao :)

Danielao
26-07-2007, 11:06
se c'è qualcuno di voi che gioca a Lotro potrebbe controllate le frequenze della scheda? A me resta sempre con le frequenze 2D

Pat77
26-07-2007, 11:11
già, l'AF lo si nota maggiormente quando si ha a che fare con supefici oblique, quindi in RTS e GDR isometrici non serve proprio, ma io non gioco a RTS e GDR isometrici


Quello che intendevo è che non serve mettere tutto al massimo per il gusto di farlo, ma adattare l'aspetto all'effettivo beneficio, che si giochi a RTS, oppure no.

+Lonewolf+
26-07-2007, 11:25
io vorrei ch le rops vengano attivate almeno nei game dx9 e cmq mi sono rotto di aspettare driver decenti che spremano a dovere la VGA...sicuramente arriveranno ma quando!!!:bsod:


cmq io ho notato una cosa stranissima in COJ...

le prestazioni con AA2x non calano di 1fps, con AA4x calano di 2-3fps,con AA8x calano di 6 fps, con 16x calano di 10-15fps, con 24x è ancora al limite della giocabilità...qualcuno mi spiega xkè???:stordita:

johnson
26-07-2007, 11:29
io l'AF lo tengo sempre attivo a 16x, visto che non prende molti frame, mentre l'AA lo attivo quando posso stare sempre sopra i fatidici 30fps, e 4x o 6x

In Oblivion e gothic ti posso assicurare che l'AFx16 ciuccia un casino di risorse :D

DIpende da quanto distante è il limite della visuale.

Scrambler77
26-07-2007, 11:38
io vorrei ch le rops vengano attivate almeno nei game dx9 e cmq mi sono rotto di aspettare driver decenti che spremano a dovere la VGA...sicuramente arriveranno ma quando!!!:bsod:


cmq io ho notato una cosa stranissima in COJ...

le prestazioni con AA2x non calano di 1fps, con AA4x calano di 2-3fps,con AA8x calano di 6 fps, con 16x calano di 10-15fps, con 24x è ancora al limite della giocabilità...qualcuno mi spiega xkè???:stordita:

CPU limited?

webbuffa
26-07-2007, 11:40
CPU limited?

:eek: Con un core 2? :asd: Siamo messi male allora......

Defragg
26-07-2007, 11:41
CPU limited?

con un C2D a 2.67ghz? mi pare esagerato, sarà che le varie impostazioni di AA in quel gioco gravano poco sul frame rate

Scrambler77
26-07-2007, 11:44
con un C2D a 2.67ghz? mi pare esagerato, sarà che le varie impostazioni di AA in quel gioco gravano poco sul frame rate

Beh se le prestazioni da no-AA a AA1x non calano per niente significa che è cpu-limited. Ciò non significa che il suo C2D sia insufficiente, quanto che il videogame è scritto col :ciapet: ...

MakenValborg
26-07-2007, 11:45
CPU limited?

:eek: Con un core 2? :asd: Siamo messi male allora......

con un C2D a 2.67ghz? mi pare esagerato, sarà che le varie impostazioni di AA in quel gioco gravano poco sul frame rate

mah ragazzi.. non ha mica detto una cavolta..

giusto per darvi un'idea della controparte Nvidia, le 8800 sono cpu limited sotto core 2duo a 3000 mhz...

Defragg
26-07-2007, 11:49
Beh se le prestazioni da no-AA a AA1x non calano per niente significa che è cpu-limited. Ciò non significa che il suo C2D sia insufficiente, quanto che il videogame è scritto col :ciapet: ...
touchè :O
mah ragazzi.. non ha mica detto una cavolta..

giusto per darvi un'idea della controparte Nvidia, le 8800 sono cpu limited sotto core 2duo a 3000 mhz...

non ho detto questo, ma mi sembrava alquanto strano :stordita:

johnson
26-07-2007, 11:53
dipende dal gioco e dalla risoluzione. Se giocate a 800x600 si può anche essere cpu limited... a 2560 è molto più difficile, ma non impossibile.
Un esempio su tutti e counterstrike source. Più giocatori ci sono nel server, più cpu serve. Faccio 300 fps in un server con 10 persone ma ne faccio solo 120 in un server con 34 persone. Sul server da 34, gli fps non salgono nemmeno se abbasso risoluzione e dettagli al minimo.

Tidus.hw
26-07-2007, 12:02
ragazzi fate conto che con la cpu in firma nel 3dmark2005 ho provato con la scheda @def coi filtri e la scheda a 850/2000 senza filtri e il punteggio è praticamente lo stesso :doh:
quindi si, direi che anche lui è cpu limited.

Catan
26-07-2007, 12:14
io vorrei ch le rops vengano attivate almeno nei game dx9 e cmq mi sono rotto di aspettare driver decenti che spremano a dovere la VGA...sicuramente arriveranno ma quando!!!:bsod:


cmq io ho notato una cosa stranissima in COJ...

le prestazioni con AA2x non calano di 1fps, con AA4x calano di 2-3fps,con AA8x calano di 6 fps, con 16x calano di 10-15fps, con 24x è ancora al limite della giocabilità...qualcuno mi spiega xkè???:stordita:

coj sotto vista e path dx10?
forse + che essere cpu limited effettivamente è l'unico caso dove l'aa in sahdercore lavora come dovrebbe lavorare e quandi le prestazioni scalano in maniera ottimale.

poi dipende dalle varie combinazioni il 16x come lo ottieni?
msaa 8x + wide
msaa 4x + edge anche se cosi esce fuori un ipotetico 12x?

ma cmq fate caso una cosa impostando il msaa 2x non è possibile attivare l'edge ma solo il narrow e il wide.

Catan
26-07-2007, 12:26
io vorrei ch le rops vengano attivate almeno nei game dx9 e cmq mi sono rotto di aspettare driver decenti che spremano a dovere la VGA...sicuramente arriveranno ma quando!!!:bsod:


cmq io ho notato una cosa stranissima in COJ...

le prestazioni con AA2x non calano di 1fps, con AA4x calano di 2-3fps,con AA8x calano di 6 fps, con 16x calano di 10-15fps, con 24x è ancora al limite della giocabilità...qualcuno mi spiega xkè???:stordita:

il problema sicuramente è che ati non ci lascia scelta xè ha deciso per ora di non darci questa possibilità ma nsomma chi ci assicura che con un aa via rop's in dx9 le prestazioni salirebbero?
ci stavo riflettendo oggi nsomma lo shadercore è potente di r600 cioè che ci assicura che poi quando l'aa verrà fatto in rop's(se verrà fatto) poi alla fine il calo di prestazioni sia minore rispetto a 16 rop's che lavorano a 740mhz?
certo è anche vero che nsomma g80 lavora bene sia con le sole 20rops delle gts clokkate a 500mhz che con le 24rops di gtx clokkate a 575mhz.
se ci basassimo solo al calcolo brutale in questo caso la potenza elaborativa di r600 si attesterebbe tra una gts e una gtx.
poi sai sarebbe da vedere come si comporterebbe su vista questa cosa visto che in vista se non sbaglio le dx9 sono emulate dalle dx10 e non native.
capace che si arriva ad un attivazione delle rop's per fare aa simulato sotto vista ed il guadagno non è eccessivo mentre chi sta sotto xp potrebbe avere qualche incremento in +.
ovviamente non sto difendento ati anche xè anche io voglio che il mio hw sia sfruttato in tutte le sue componenti xò a volte mi pongo qualche quesito sul fatto che cmq i programmatori ati che non sono gli ultimi arrivati abbiano deciso di puntare tutto sullo shader core considerando l'aa in rop's come un problema secondario da risolvere 2 o 3 mesi dopo l'usicta della vga

+Lonewolf+
26-07-2007, 12:32
cmq non sono cpu limited perchè ottenco gli stessi results anche se spingo il procio a 2.8...anche un'altro utente ottiene i miei stessi results...



cmq in coj hanno risolto il problema delle ombre ma adesso ne è sorto un'altro...NON SI VEDE L'ACQUA!!! te possino...:mad:

webbuffa
26-07-2007, 12:37
cmq non sono cpu limited perchè ottenco gli stessi results anche se spingo il procio a 2.8...anche un'altro utente ottiene i miei stessi results...



cmq in coj hanno risolto il problema delle ombre ma adesso ne è sorto un'altro...NON SI VEDE L'ACQUA!!! te possino...:mad:

Parli del directx 10 o 9 ?

+Lonewolf+
26-07-2007, 12:39
Parli del directx 10 o 9 ?

9...


non mi pare che qualcuo quassopra sia riuscito a patchare coj in dx10...:mc:

webbuffa
26-07-2007, 12:41
9...


non mi pare che qualcuo quassopra sia riuscito a patchare coj in dx10...:mc:

:O Potevi anche parlare del benchmark....

Pat77
26-07-2007, 12:57
il problema sicuramente è che ati non ci lascia scelta xè ha deciso per ora di non darci questa possibilità ma nsomma chi ci assicura che con un aa via rop's in dx9 le prestazioni salirebbero?
ci stavo riflettendo oggi nsomma lo shadercore è potente di r600 cioè che ci assicura che poi quando l'aa verrà fatto in rop's(se verrà fatto) poi alla fine il calo di prestazioni sia minore rispetto a 16 rop's che lavorano a 740mhz?
certo è anche vero che nsomma g80 lavora bene sia con le sole 20rops delle gts clokkate a 500mhz che con le 24rops di gtx clokkate a 575mhz.
se ci basassimo solo al calcolo brutale in questo caso la potenza elaborativa di r600 si attesterebbe tra una gts e una gtx.
poi sai sarebbe da vedere come si comporterebbe su vista questa cosa visto che in vista se non sbaglio le dx9 sono emulate dalle dx10 e non native.
capace che si arriva ad un attivazione delle rop's per fare aa simulato sotto vista ed il guadagno non è eccessivo mentre chi sta sotto xp potrebbe avere qualche incremento in +.
ovviamente non sto difendento ati anche xè anche io voglio che il mio hw sia sfruttato in tutte le sue componenti xò a volte mi pongo qualche quesito sul fatto che cmq i programmatori ati che non sono gli ultimi arrivati abbiano deciso di puntare tutto sullo shader core considerando l'aa in rop's come un problema secondario da risolvere 2 o 3 mesi dopo l'usicta della vga

Io non penso lo considerino un problema, hanno semplicemente sviluppato una soluzione dx10 che non verrà gravata dagli stessi limiti del fsaa via rops in dx9, quindi programmabile e abilitabile sempre e comunque.
Poi è un problema di aspettative, io a 35 fps di media vedo Dirt fluidissimo (molto meglio della versione 360, senza scalettature grazie al 4x e con il filtro anisotropico), se con i driver si spera se ne facciano 60, bhe è illudersi imho, se poi dovessi essere smentito tanto meglio ;)

+Lonewolf+
26-07-2007, 12:59
Io non penso lo considerino un problema, hanno semplicemente sviluppato una soluzione dx10 che non verrà gravata dagli stessi limiti del fsaa via rops in dx9, quindi programmabile e abilitabile sempre e comunque.
Poi è un problema di aspettative, io a 35 fps di media vedo Dirt fluidissimo (molto meglio della versione 360, senza scalettature grazie al 4x e con il filtro anisotropico), se con i driver si spera se ne facciano 60, bhe è illudersi imho, se poi dovessi essere smentito tanto meglio ;)

:mano:

Free Gordon
26-07-2007, 13:33
la vers 360 di Dirt ha l'msaa 4x. :D
i giochi bisogna vederli sullo stesso monitor per confrontarli.. ^_^ ma sopratutto bisognerebbe provare a vedere i giochi pc, su un tv lcd a quella res (720p) per rendersi conto di quanto sia poco un msaa4x per uno schermo grande... :asd:

Pat77
26-07-2007, 13:47
la vers 360 di Dirt ha l'msaa 4x. :D
i giochi bisogna vederli sullo stesso monitor per confrontarli.. ^_^ ma sopratutto bisognerebbe provare a vedere i giochi pc, su un tv lcd a quella res (720p) per rendersi conto di quanto sia poco un msaa4x per uno schermo grande... :asd:

Appunto, stesso monitor, la versione 360 era su un monitor ;) e se era un 4x quello ha la qualità del 2x di hd2900xt, per essere buoni.

NvidiaMen
26-07-2007, 14:34
ragazzi fate conto che con la cpu in firma nel 3dmark2005 ho provato con la scheda @def coi filtri e la scheda a 850/2000 senza filtri e il punteggio è praticamente lo stesso :doh:
quindi si, direi che anche lui è cpu limited.

Ovvio con 3dmark05 sfrutti un solo core della tua cpu... riprova semmai con il 3dmark06.;)

carver
27-07-2007, 00:24
si clokka bene anche lasciando le impostazioni della ventola a default.
la mia ad aria sta tranquilla a 800-1000 non superando mai i 72°.

al 100% sembra una turbina.

anche se questa è una vga che scala molto con le temperature.
la mia sotto liquido fa i 900mhz per i bench e 875 stabile
mentre ad aria a volte capita che anche a 825 si blocca.

ottimo....
io gioco con le cuffie zalman.... e adesso uso la 1900 al 100% di ventola.. quindi al casino son abituato!

DOMANDONE:::

la connessione x l'alimentazione e' AD 8 PIN O A 6 normale pci-exp?
ho comprato l'alimentatore nuovo ( liberty 600 modulare) e ho notato questi 8 connettori... vorrei provarli subito!

Y2J Lionheart
27-07-2007, 00:35
cmq non sono cpu limited perchè ottenco gli stessi results anche se spingo il procio a 2.8...anche un'altro utente ottiene i miei stessi results...



cmq in coj hanno risolto il problema delle ombre ma adesso ne è sorto un'altro...NON SI VEDE L'ACQUA!!! te possino...:mad:
Veramente io l' ho finito proprio oggi e l' acqua si vede benissimo :mbe:

Se non l' avessi disinstallato ti farei vedere anche uno screen :sofico:

Free Gordon
27-07-2007, 01:25
Appunto, stesso monitor, la versione 360 era su un monitor ;) e se era un 4x quello ha la qualità del 2x di hd2900xt, per essere buoni.

Allora se hai visto scalette è probabile che fosse su un lcd e non settata alla res nativa del monitor ^_^ (l'unica per giudicare a paragone, è vederla su un crt e settarla a 720p, poi fare lo stesso con la vers pc. Come ho fatto io del resto! :D)

Pat77
27-07-2007, 08:10
Allora se hai visto scalette è probabile che fosse su un lcd e non settata alla res nativa del monitor ^_^ (l'unica per giudicare a paragone, è vederla su un crt e settarla a 720p, poi fare lo stesso con la vers pc. Come ho fatto io del resto! :D)

Chiudiamo l'off topic, era comunque settato nativo a 1280x1024 da dashboard, aveva le scalette e una palette leggermente più scura.

Pat77
27-07-2007, 08:12
ottimo....
io gioco con le cuffie zalman.... e adesso uso la 1900 al 100% di ventola.. quindi al casino son abituato!

DOMANDONE:::

la connessione x l'alimentazione e' AD 8 PIN O A 6 normale pci-exp?
ho comprato l'alimentatore nuovo ( liberty 600 modulare) e ho notato questi 8 connettori... vorrei provarli subito!

La connessione è a a 6+6 o 6+8 (con overdrive).

carver
27-07-2007, 08:15
La connessione è a a 6+6 o 6+8 (con overdrive).

quindi il pci exp da 6 va sempre messo... e x clokare si mette l'8?

Pat77
27-07-2007, 08:21
quindi il pci exp da 6 va sempre messo... e x clokare si mette l'8?

il pci-express è il pettine di collegamento tra mobo e vga e se non lo metti non funziona nulla.

Per i cavi, ci sono 2 alternative che hai ben inteso, 6 pin + 6 pin per modalità normale, 8+6 per overcloccare, puoi comunque usare ati tools per farlo con i connettotori 6+6

Catan
27-07-2007, 08:49
quindi il pci exp da 6 va sempre messo... e x clokare si mette l'8?

no inteoria per funzionare dovresti mettere solo l'8pin.
xè con il pci ex 2.0 e l'8 pin la radeon dovrebbe partire gia in overdrive.

se non hai una mobo pci ex 2.0 allora metti solo l'8pin per farla partire ma necessita anche del 6pin per attivare l'overdrive da catalist.
con l'8pin attento a non confonderti cn 8pin per le mobo che va al posto di quello classico a 4 pin (a parte che l'ho provato e dentro la radeon non c'entra)

se non hai una mobo pci ex 2.0 e ne un connettore pci ex 8 pin
devi inserire il 6 pin dentro il connettore 8 pin per far funzionare la vga(va tranquillo dentro tanto lo vedi se ti metti tutto a destra non entra tutto a sinistra si) se vuoi overcloccare tramite tool(rivatuner atitool etc) devi mettere un altro 6 pin nel buco da 6 pin.
se vuoi overclokkare tramite overdrive e pannello catalist devi fare un ponticello di metallo a U che collega i 2 buchi dell'8pin rimasti vuoti dal 6 pin.

Pat77
27-07-2007, 09:02
Sì ma la hd2900xt è pci-e non 2.0, in teoria potrebbero eliminare l'8pin in future revision, quando saranno disponibili mainboard con il pci-e 2.0.

Catan
27-07-2007, 09:17
Sì ma la hd2900xt è pci-e non 2.0, in teoria potrebbero eliminare l'8pin in future revision, quando saranno disponibili mainboard con il pci-e 2.0.

secondo me credo che con mobo pci-ex2.0 elimineranno il 6 pin e non l'8pin cosi potremo tutti cambiare mobo.
anche se pur non essendo una pci-ex 2.0 io un review di un sito dove testava la radeon con solo l'8pin e il ccc per l'overdrive l'ho visto e se ne è parlato anche in questo tread qualche n pagine fà

MonsterMash
27-07-2007, 09:36
secondo me credo che con mobo pci-ex2.0 elimineranno il 6 pin e non l'8pin cosi potremo tutti cambiare mobo.
anche se pur non essendo una pci-ex 2.0 io un review di un sito dove testava la radeon con solo l'8pin e il ccc per l'overdrive l'ho visto e se ne è parlato anche in questo tread qualche n pagine fà

Onestamente questa cosa non l'ho mai sentita. Mi linkeresti il sito della review?
Per caso esistono già mobo pci-e 2.0?

Ciao!

Pat77
27-07-2007, 11:10
Onestamente questa cosa non l'ho mai sentita. Mi linkeresti il sito della review?
Per caso esistono già mobo pci-e 2.0?

Ciao!

Che io sappia non esistono mobo pci-e 2.0.

+Lonewolf+
27-07-2007, 11:23
Veramente io l' ho finito proprio oggi e l' acqua si vede benissimo :mbe:

Se non l' avessi disinstallato ti farei vedere anche uno screen :sofico:

son sotto vista e ti assicuro che non si vede ne acqua ne fuoco, l'unica eccezzione è fatta dallì'acqua nei secchi...per il resto nisba...:mad:

JoeLatino
27-07-2007, 11:30
ragazzi mi dispiace ma ho da postarvi una brutta notizia....(anche se vecchia!)
vi auguro tanto (anche per il bene degli nvidiosi) che la prossima scheda andra' molto meglio...


AMD's ATI R600 will NOT be any better than GeForce 8800 GTX - NO NEED TO WAIT
Apr 22, 2007 13:12

My cusin is an nVIDIA engineer (and I'll be too) and he told me that nVIDIA got hold of an R600 sample.they tested it,benchmarked it and played with it and found that R600 HD 2900 XT is no better than nVIDIA's GeForce 8800 GTX GPU..Infact the 8800 GTX proved superior to R600 XT in shader intensive apps and pc games due to the G80 better implemintation of the unified shader architecture and also due to the fact the G80 is 100% efficient scalar & streaming design..performance wise, 8800 GTX is 15-20% faster than R600 XT in shader intensive apps and games...so for all ATI fanboys the wait for R600 was for nothing..G80 is much more powerful than R600 from architectural perspective..G80 is scalar vs R600 vector etc...
the only edge R600 XT has over 8800 GTX is its price standing at MSRP of 399 USD...
Erik Larsson

+Lonewolf+
27-07-2007, 11:34
ragazzi mi dispiace ma ho da postarvi una brutta notizia....(anche se vecchia!)
vi auguro tanto (anche per il bene degli nvidiosi) che la prossima scheda andra' molto meglio...


AMD's ATI R600 will NOT be any better than GeForce 8800 GTX - NO NEED TO WAIT
Apr 22, 2007 13:12

My cusin is an nVIDIA engineer (and I'll be too) and he told me that nVIDIA got hold of an R600 sample.they tested it,benchmarked it and played with it and found that R600 HD 2900 XT is no better than nVIDIA's GeForce 8800 GTX GPU..Infact the 8800 GTX proved superior to R600 XT in shader intensive apps and pc games due to the G80 better implemintation of the unified shader architecture and also due to the fact the G80 is 100% efficient scalar & streaming design..performance wise, 8800 GTX is 15-20% faster than R600 XT in shader intensive apps and games...so for all ATI fanboys the wait for R600 was for nothing..G80 is much more powerful than R600 from architectural perspective..G80 is scalar vs R600 vector etc...
the only edge R600 XT has over 8800 GTX is its price standing at MSRP of 399 USD...
Erik Larsson

tuo cuggggggino??? nn mi fido molto di sta roba:rolleyes:


cmq anche se fosse nn me ne frega niente personalmente xkè le cose stanno prendendo un'altra piega, non performa sicuramente + della gtx ma almeno performa bene e qualche volta si pone a livello di gtx(anche se raramente)

in ogni caso quando sarà il momento vedremo queste notizie che fine faranno:rolleyes:

3DMark79
27-07-2007, 11:34
Sì ma la hd2900xt è pci-e non 2.0, in teoria potrebbero eliminare l'8pin in future revision, quando saranno disponibili mainboard con il pci-e 2.0.

Non possono toglierlo il connettore 8pin nelle revisioni a 2.0 perchè se uno utilizza ancora una scheda madre PCI-E 1.0 come fa ad alimentarla la scheda video?Non basterebbe.

halduemilauno
27-07-2007, 11:36
ragazzi mi dispiace ma ho da postarvi una brutta notizia....(anche se vecchia!)
vi auguro tanto (anche per il bene degli nvidiosi) che la prossima scheda andra' molto meglio...


AMD's ATI R600 will NOT be any better than GeForce 8800 GTX - NO NEED TO WAIT
Apr 22, 2007 13:12

My cusin is an nVIDIA engineer (and I'll be too) and he told me that nVIDIA got hold of an R600 sample.they tested it,benchmarked it and played with it and found that R600 HD 2900 XT is no better than nVIDIA's GeForce 8800 GTX GPU..Infact the 8800 GTX proved superior to R600 XT in shader intensive apps and pc games due to the G80 better implemintation of the unified shader architecture and also due to the fact the G80 is 100% efficient scalar & streaming design..performance wise, 8800 GTX is 15-20% faster than R600 XT in shader intensive apps and games...so for all ATI fanboys the wait for R600 was for nothing..G80 is much more powerful than R600 from architectural perspective..G80 is scalar vs R600 vector etc...
the only edge R600 XT has over 8800 GTX is its price standing at MSRP of 399 USD...
Erik Larsson

ma l'hai vista la data?
;)

+Lonewolf+
27-07-2007, 11:38
ma l'hai vista la data?
;)

in effetti...

hal mi avrai mica messo in ignole list:confused: ???

JoeLatino
27-07-2007, 11:45
ma l'hai vista la data?
;)

infatti ho detto che era vecchia come notizia...;)
pero' indipendentemente dai fatti e dai possibili miglioramenti secondo me il succo e' che Nvidia aveva gia' in mano la r600 molto prima che uscisse e di conseguenza ha stoppato la possibilita' di controbbattere poiche' la 8800gtx era gia' superiore ed ha rinviato il tutto in modo anche di aver un maggior guadagno sulle vendite...

fukka75
27-07-2007, 11:46
Beh, se è per questo ATI stessa aveva detto al lancio di R600 che la rivale sarebbe stata la 8800GTS ;)

safendi
27-07-2007, 11:49
Beh, se è per questo ATI stessa aveva detto al lancio di R600 che la rivale sarebbe stata la 8800GTS ;)

infatti è quello che è, superiore alla gts e inferiore alla gtx. solo che prima del lancio si diceva ke era superiore alla gtx, cosa assolutamente falsa

JoeLatino
27-07-2007, 11:50
Beh, se è per questo ATI stessa aveva detto al lancio di R600 che la rivale sarebbe stata la 8800GTS ;)

giusto
ora pero' mi domando una cosa...
come mai ATI in questo periodo (e probabilmente fino a fin anno almeno) non ha fatto uscire niente di meglio???
E' cosi' messa male? O c'e' qualcosa sotto che noi ancora non sappiamo?

halduemilauno
27-07-2007, 11:52
infatti ho detto che era vecchia come notizia...;)
pero' indipendentemente dai fatti e dai possibili miglioramenti secondo me il succo e' che Nvidia aveva gia' in mano la r600 molto prima che uscisse e di conseguenza ha stoppato la possibilita' di controbbattere poiche' la 8800gtx era gia' superiore ed ha rinviato il tutto in modo anche di aver un maggior guadagno sulle vendite...

tutto trito e ritrito. ne abbiamo gia parlato più volte l'ultima nel thread della G92. se vuoi continuiamo li. è meglio.

appleroof
27-07-2007, 11:56
giusto
ora pero' mi domando una cosa...
come mai ATI in questo periodo (e probabilmente fino a fin anno almeno) non ha fatto uscire niente di meglio???
E' cosi' messa male? O c'e' qualcosa sotto che noi ancora non sappiamo?

La 2900xt secondo me non è esattamente l'R600che avevano in mente loro, l'hanno fatta uscire come "ripiego" perchè ormai il ritardo era tragicomico, io credo che la "vera" R600 sia basata nat. su quella attuale, ma con 65nm 1 giga di ddr4 e affinamenti vari, probabilmente quella su cui puntavano per quest'inverno ma che appunto non sono riusciti a far uscire (mi pare di ricordare grossi problemi con i 65nm)

sono inoltre in ritardo imbarazzante con i driver che fanno pena e questo và ad ulteriore svantaggio della scheda attuale (ma se volgiamo anche delle prosssime, vista l'architettura così complessa che hanno tirato fuori complicandosi la vita): a parità di "tempi" i primi driver per g80 non facevano così pena come le attuali prime release per r600, resta il fatto che quelli per g80 sono anche leggermente più facili da programmare e che g80 è meno driver-dipendetne di r600

Athlon 64 3000+
27-07-2007, 12:10
Ho trovato questi driver che sono gli 8.40 RC3 per Windows XP.
Li sto scaricando per vedere quanto sono datati e se sono per Xp.
http://www.rage3d.com/board/showthread.php?p=1335057823#post1335057823

webbuffa
27-07-2007, 12:12
Ho trovato questi driver che sono gli 8.40 RC3 per Windows XP.
Li sto scaricando per vedere quanto sono datati e se sono per Xp.
http://www.rage3d.com/board/showthread.php?p=1335057823#post1335057823

:) Grazie della segnalazione! Ma hotfix per ora niente :)?

zorco
27-07-2007, 12:13
Ho trovato questi driver che sono gli 8.40 RC3 per Windows XP.
Li sto scaricando per vedere quanto sono datati e se sono per Xp.
http://www.rage3d.com/board/showthread.php?p=1335057823#post1335057823
minchias 168mb di driver :eek:

Scrambler77
27-07-2007, 12:17
La 2900xt secondo me non è esattamente l'R600che avevano in mente loro, l'hanno fatta uscire come "ripiego" perchè ormai il ritardo era tragicomico, io credo che la "vera" R600 sia basata nat. su quella attuale, ma con 65nm 1 giga di ddr4 e affinamenti vari, probabilmente quella su cui puntavano per quest'inverno ma che appunto non sono riusciti a far uscire (mi pare di ricordare grossi problemi con i 65nm)

sono inoltre in ritardo imbarazzante con i driver che fanno pena e questo và ad ulteriore svantaggio della scheda attuale (ma se volgiamo anche delle prosssime, vista l'architettura così complessa che hanno tirato fuori complicandosi la vita): a parità di "tempi" i primi driver per g80 non facevano così pena come le attuali prime release per r600, resta il fatto che quelli per g80 sono anche leggermente più facili da programmare e che g80 è meno driver-dipendetne di r600

Quoto.

In relazione ai drivers spezzo una lancia per ATi: purtroppo hanno scelto una architettura poco facile da programmare e che tra l'altro necessita di continue ottimizzazioni per ogni singolo engine grafico. Non finiranno mai di risolvere driver-issue per cercare di tenere R600 sui livelli di performance della GTS su tutti i titoli futuri...

E' la filosofia alla base del progetto dell'architettura, secondo me, ad essere fallimentare. Hanno cercato un'architettura parecchio complessa ma che alla fine impone uno sforzo troppo elevato per stare al passo col software.

Secondo me con R700 avremo un'inversione di tendenza (me lo auguro)... sempre che G92 non faccia da spada di Damocle.

Nos89
27-07-2007, 12:27
minchias 168mb di driver :eek:

qualcuno li ha provati? puo essere che finalmente quelli buoni sono arrivati:)

webbuffa
27-07-2007, 12:30
qualcuno li ha provati? puo essere che finalmente quelli buoni sono arrivati:)

:) Cambio hd e li provo! Peccato non siano per vista :(

Quoziente
27-07-2007, 12:39
webbuffa aspetto con ansia tue notizie prima di procedere al download... ;)

webbuffa
27-07-2007, 12:39
webbuffa aspetto con ansia tue notizie prima di procedere al download... ;)

;) sure! Intanto date un occhio al sito :) http://web.tiscali.it/buffa87 e datemi un parere :):) o un aiuto per ampliarlo :D

+Lonewolf+
27-07-2007, 12:41
wow!!!


cmq avete sentito della riscrittura da zero dei drivers del core??? dicono siano pronti con i 7.9/7.10 ma non si sa che benefici apporterebbero realmente

Nos89
27-07-2007, 12:42
:) Cambio hd e li provo! Peccato non siano per vista :(

Vista è la cosa più ridicola degli ultimi tempi:asd: se vuoi giocare al max WinXp Pro SP2;)

×§ñåkê×
27-07-2007, 12:47
Vista è la cosa più ridicola degli ultimi tempi:asd: se vuoi giocare al max WinXp Pro SP2;)

perche? io gioco con vista da 2 mesi... mai nessun problema :O

Free Gordon
27-07-2007, 12:48
ragazzi mi dispiace ma ho da postarvi una brutta notizia....(anche se vecchia!)
vi auguro tanto (anche per il bene degli nvidiosi) che la prossima scheda andra' molto meglio...
AMD's ATI R600 will NOT be any better than GeForce 8800 GTX - NO NEED TO WAIT
Apr 22, 2007 13:12
My cusin is an nVIDIA engineer (and I'll be too) and he told me that nVIDIA got hold of an R600 sample.they tested it,benchmarked it and played with it and found that R600 HD 2900 XT is no better than nVIDIA's GeForce 8800 GTX GPU..Infact the 8800 GTX proved superior to R600 XT in shader intensive apps and pc games due to the G80 better implemintation of the unified shader architecture and also due to the fact the G80 is 100% efficient scalar & streaming design..performance wise, 8800 GTX is 15-20% faster than R600 XT in shader intensive apps and games...so for all ATI fanboys the wait for R600 was for nothing..G80 is much more powerful than R600 from architectural perspective..G80 is scalar vs R600 vector etc...
the only edge R600 XT has over 8800 GTX is its price standing at MSRP of 399 USD...Erik Larsson



Tutto giusto se non fosse che doveva parlare di texture intensive application (invece che di shader intensive... :asd: ) e sbaglia nuovamente dicendo che R600 ha alu vettoriali (vec5). Sono alu superscalari.

Quando ci saranno giochi veramente shader intensive si vedranno le 2900XT andare meglio delle GTX (dx9 o 10 che sia). La scelta architetturale è stata questa. ;)

Quoziente
27-07-2007, 12:48
wow!!!


cmq avete sentito della riscrittura da zero dei drivers del core??? dicono siano pronti con i 7.9/7.10 ma non si sa che benefici apporterebbero realmente

Si avevo sentito anch'io questa voce. Si spera sia vera e che aiuti a risolvere parte dei problemi della scheda. Secondo me l'idea migliore sarebbe dividere i drivers: Drivers per architetture R5xx e drivers per architetture r6xx... (tanto per non doversi scaricare 100Mb tra drivers e CCC tutti i mesi...

Nos89
27-07-2007, 12:50
perche? io gioco con vista da 2 mesi... mai nessun problema :O

puah(Vista:doh: )poi per ogni cazzata ti chiede sei sicuro?(10 volte)e che palle:mad:

safendi
27-07-2007, 12:51
puah(Vista:doh: )poi per ogni cazzata ti chiede sei sicuro?(10 volte)e che palle:mad:

guarda ke si può togliere, basta andare in account

Mister Tarpone
27-07-2007, 12:52
puah(Vista:doh: )poi per ogni cazzata ti chiede sei sicuro?(10 volte)e che palle:mad:

quella è una grossa rottura... :asd:

ale0bello0pr
27-07-2007, 12:52
perche? io gioco con vista da 2 mesi... mai nessun problema :O

idem tutto piu veoce :D :ciapet:

Nos89
27-07-2007, 12:54
idem tutto piu veoce :D :ciapet:

eh si è molto più veloce la mia 8800 a perdere FPS:asd: e spaccarmi la testa con quei messaggi inutili:p

Free Gordon
27-07-2007, 12:56
infatti è quello che è, superiore alla gts e inferiore alla gtx. solo che prima del lancio si diceva ke era superiore alla gtx, cosa assolutamente falsa

Per quanto riguarda le schede video non esiste un benchmark assoluto.
Le architetture hw possono essere molto diverse perchè le architetture SOFTWARE possono esserlo.

R600 nei giochi attuali è inferiore alla GTX perchè questa ha più unità texture e rops, ma è molto probabile che sarà più veloce della GTX/Ultra in giochi con particolare carico sugli shader, con istruzioni lunghe e calcoli ad alta precisione (maggiori di fp32).
Infatti già oggi se guardi il test perlin noise (con rapporti ALU:TEX 10:1), la 2900XT è sopra alla GTX.
R600 è stato progettato per architetture software che rispondano a rapporti ALU:TEX di 15/20:1. Dx9 o Dx10 che siano. ;)

Si faranno mai giochi con tali proporzioni? Non lo so, vedremo cosa ci riserverà il futuro.

Quoziente
27-07-2007, 13:00
Si faranno mai giochi con tali proporzioni? Non lo so, vedremo cosa ci riserverà il futuro.

Ritengo che i signori AMD/ATI non siano gli ultimi arrivati e che abbiano tastato il terreno prima di buttarsi in un architettura così innovativa ma anche "sbilanciata"... O almeno me lo auguro...:rolleyes:

Tidus.hw
27-07-2007, 13:01
puah(Vista:doh: )poi per ogni cazzata ti chiede sei sicuro?(10 volte)e che palle:mad:

ci metti 10 secondi a disattivare quella stronzata :asd:

×§ñåkê×
27-07-2007, 13:07
eh si è molto più veloce la mia 8800 a perdere FPS:asd: e spaccarmi la testa con quei messaggi inutili:p

io non ho perso neanche mezzo fps... anzi...

e poi UAC lo puoi disattivare..

-.-'

×§ñåkê×
27-07-2007, 13:08
ma davvero crysis esce l'11 settembre??? o cavolo stò andando in fibrillazione

Konrad76
27-07-2007, 13:12
ma davvero crysis esce l'11 settembre??? o cavolo stò andando in fibrillazione

14 settembre.....siamo tutti in attesa...

Scrambler77
27-07-2007, 13:17
puah(Vista:doh: )poi per ogni cazzata ti chiede sei sicuro?(10 volte)e che palle:mad:

:asd: :mano:

Scrambler77
27-07-2007, 13:18
ci metti 10 secondi a disattivare quella stronzata :asd:

Si ma ogni 10 secondi vista ti ricorda che hai disattivato quella stronzata... con un'altra stronzata. :asd:

Quoziente
27-07-2007, 13:19
14 settembre.....siamo tutti in attesa...

Sembra ripeto sembra dalle ultime indiscrezioni che il gioco sia slittato al 13 novembre...:(
Cmq un portavoce di Crytek ha dichiarato che la release date ufficiale sarà annunciata molto molto presto...

Scrambler77
27-07-2007, 13:20
Per quanto riguarda le schede video non esiste un benchmark assoluto.
Le architetture hw possono essere molto diverse perchè le architetture SOFTWARE possono esserlo.

R600 nei giochi attuali è inferiore alla GTX perchè questa ha più unità texture e rops, ma è molto probabile che sarà più veloce della GTX/Ultra in giochi con particolare carico sugli shader, con istruzioni lunghe e calcoli ad alta precisione (maggiori di fp32).
Infatti già oggi se guardi il test perlin noise (con rapporti ALU:TEX 10:1), la 2900XT è sopra alla GTX.
R600 è stato progettato per architetture software che rispondano a rapporti ALU:TEX di 15/20:1. Dx9 o Dx10 che siano. ;)

Si faranno mai giochi con tali proporzioni? Non lo so, vedremo cosa ci riserverà il futuro.

La risposta all'ultima domanda che ti poni è quella che rende valido un prodotto. I tempi, però, non sono del tutto allineati. Una cosa è certa: il futuro di sicuro non ci riserva R600... ma altri progetti, pertanto tutte le elucubrazioni del caso sono inutili. Ciò che conta è come vanno le schede di oggi con i giochi di ieri ed oggi. Coi giochi di domani avremo le schede di domani...

Sembra ripeto sembra dalle ultime indiscrezioni che il gioco sia slittato al 13 novembre...:(
Cmq un portavoce di Crytek ha dichiarato che la release date ufficiale sarà annunciata molto molto presto...

NO!!! :omg: Dove l'hai letto??

Konrad76
27-07-2007, 13:21
Sembra ripeto sembra dalle ultime indiscrezioni che il gioco sia slittato al 13 novembre...:(
Cmq un portavoce di Crytek ha dichiarato che la release date ufficiale sarà annunciata molto molto presto...

DAVVERO!!!?????:cry: :cry: :cry: :cry:

+Lonewolf+
27-07-2007, 13:23
qualcuno li ha provati? puo essere che finalmente quelli buoni sono arrivati:)

formatto il mio xp e provo, magari c'è la sopresa:D

webbuffa
27-07-2007, 13:24
:) Allora... installati, la versione è quella 8.40070713a

La decompressione è stata lunghissima :| c'erano un sacco di voci che mai avevo visto negli installer precedenti... questo fa ben sperare. La prima cosa che si nota, una volta entrati nel ccc, è il ritorno delle temp a 57 58° in idle :asd: , cominciamo bene :asd:, ora passo al testing :D a dopo!

Nos89
27-07-2007, 13:26
Si ma ogni 10 secondi vista ti ricorda che hai disattivato quella stronzata... con un'altra stronzata. :asd:

gia....ma poi non è che mi fa schifo soltanto che rompe troppo(ho avuto Vista Ultimate per 1 mese prima che uscisse)....inoltre le Nvidia spingono di più su XP e anche fosse il contrario senza SP1 non se ne parla di mettere quella chiavica:asd:

Quoziente
27-07-2007, 13:27
Nel thread Crysis c'é tutto...
Cmq EBgames ha spostato la data di disponibilità del gioco dal 14 settembre al 13 novembre...:cry:

Pat77
27-07-2007, 13:29
Non possono toglierlo il connettore 8pin nelle revisioni a 2.0 perchè se uno utilizza ancora una scheda madre PCI-E 1.0 come fa ad alimentarla la scheda video?Non basterebbe.

Anche questo è vero, comunque staremo a vedere.

Konrad76
27-07-2007, 13:30
Nel thread Crysis c'é tutto...
Cmq EBgames ha spostato la data di disponibilità del gioco dal 14 settembre al 13 novembre...:cry:

Si mi sono documentato.....x metterla in concomitanza con l'uscita delle nuove schede di fascia alta Nvidia......wow........

Nos89
27-07-2007, 13:31
Anche questo è vero, comunque staremo a vedere.

se non overclocchi basta anche 2x6pin ne sono certo....anche perchè la nuova revision dovrebbe consumare meno o sbaglio....in caso contrario mi pare una grossa cappellata;)

Tidus.hw
27-07-2007, 13:34
Si ma ogni 10 secondi vista ti ricorda che hai disattivato quella stronzata... con un'altra stronzata. :asd:

ma anche no =0

Scrambler77
27-07-2007, 13:35
gia....ma poi non è che mi fa schifo soltanto che rompe troppo(ho avuto Vista Ultimate per 1 mese prima che uscisse)....inoltre le Nvidia spingono di più su XP e anche fosse il contrario senza SP1 non se ne parla di mettere quella chiavica:asd:

OT - Prova i nuovi drivers (usciti oggi)... hanno pareggiato le prestazioni. ;) - Fine OT

Nos89
27-07-2007, 13:37
OT - Prova i nuovi drivers (usciti oggi)... hanno pareggiato le prestazioni. ;) - Fine OT

non ho voglia di formattare per Vista:D cmq questa è gia una buona cosa! speriamo in futuro andrà meglio di XP:)
FINE OT SULLE 8800

Pat77
27-07-2007, 13:39
se non overclocchi basta anche 2x6pin ne sono certo....anche perchè la nuova revision dovrebbe consumare meno o sbaglio....in caso contrario mi pare una grossa cappellata;)

Si parlava di eliminare un connettore con pci-e 2.0, ipotesi che per motivi di compatibilità ha giustamente sottolineato 3dmark79 è poco percorribile.
Comunque una revision a 0.65 per pci-e 2.0 sarebbe anche percorribile, e con il calo dei consumi potrebbe bastare anche un solo 6 pin.

Quoziente
27-07-2007, 13:40
Si mi sono documentato.....x metterla in concomitanza con l'uscita delle nuove schede di fascia alta Nvidia......wow........

Anche questa però e solo una voce. C'é chi dice che è stato spostato perché non è ancora ottimizzato a sufficienza, chi dice che è per "aspettare" G92, chi dice che è per metterlo in concomitanza con l'uscita dei nuovi processori intel Penryn... (come sapete intel ha seguito passo passo lo sviluppo di Crysis...)

Ok dai basta ot, se volete parlarne thread Aspettando Crysis - Sezione Giochi