PDA

View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 [50] 51 52 53 54 55 56 57 58 59 60 61

safendi
15-10-2007, 09:18
:asd:

sarebbe una bella sparata in effetti...xò divertentissima

:fagiano:

gianni1879
15-10-2007, 09:20
esatto, condivido al 100%: in particolare l'affermazione in neretto (che tra l'altro, non per dire "l'avevo detto" era stato sottolineato sin dal lancio della 2900xt da tanti tra cui modestamente me stesso --sicuramente dopo le affermazioni di uno che ad Ati ci lavora, mi pare, o perlomeno mi pare di capire sia molto vicino a quell'ambiente, e non a chiacchere).

Non per nulla definivo R600 un "esercizio di stile, tecnico" alla fine quello che conta non sono le innovazioni fantasmagoriche, se queste non si rivelano efficaci, perchè sennò rimangono fini a se stesse....

credo che tutto questo non sia opinabile, spero non sia preso come occasione di flame, rimane il fatto che Ati ha messo seriamente in rischio la sua fama per la gestione dei filtri co questa scheda e volevo solo lanciare questo punto di riflessione, fermo restando che ovviamente con le prossime schede la cosa si possa recuperare come hai detto giustamente

;)
nessun flame figurati, quando si discute civilmente e con toni giusti ben vengano i confronti tra gli utenti :)

La base di R600 è ottima ci si deve solo lavorare per migliorarla ed eliminare i difetti, cosa che vedremo tra brevissimo.

Catan
15-10-2007, 09:29
diciamo pure che Rv670 dovrebbe essere quello che R600 doveva essere alla sua uscita ;)
Se risolvono questi problemi e considerando le frequenze cmq elevate del chip dovrebbe essere una scheda molto molto interessante, considerando anche i consumi contenuti ;)

ma non penso sai forse sul lato della gpu si, cmq sempre 320sp frequenze alte sugli 800mhz ma processo produttivo a 65 o 55nm per contenere il calore{che secondo me cmq non aspettatevi miracoli visto si che il processo scende da 80 a 55nm ma c e anche un aumento di frequenza da 740mhz a 825} forse ci stare una diminuzione dei consumi{penso sempre marginale 10/15W}
il problema si presenta sul bus...
quanti di voi avrebbero storto il naso se fosse stato presentato con soli 256bit di bus nonstante le gddr4 a 2400mhz.
cmq gi' il fatto che hanno sistemato le rops per un aa in dx9 classico e un passo anvanti...purtroppo cmq teoricamente le capacita di aa di un rv670 sempre con 16rop anche a 825mhz sono inferiori a quelle della gtx che ne ha 24 a 575mhz...cmq superiori alla gts{gia adesso se r600 funzionasse le rops avrebbero maggiore capacita di calcolo di una gts}.

Iantikas
15-10-2007, 09:41
http://www.legionhardware.com/document.php?id=693


...nuova rece su UT3...ciao

gianni1879
15-10-2007, 09:56
ma non penso sai forse sul lato della gpu si, cmq sempre 320sp frequenze alte sugli 800mhz ma processo produttivo a 65 o 55nm per contenere il calore{che secondo me cmq non aspettatevi miracoli visto si che il processo scende da 80 a 55nm ma c e anche un aumento di frequenza da 740mhz a 825} forse ci stare una diminuzione dei consumi{penso sempre marginale 10/15W}
il problema si presenta sul bus...
quanti di voi avrebbero storto il naso se fosse stato presentato con soli 256bit di bus nonstante le gddr4 a 2400mhz.
cmq gi' il fatto che hanno sistemato le rops per un aa in dx9 classico e un passo anvanti...purtroppo cmq teoricamente le capacita di aa di un rv670 sempre con 16rop anche a 825mhz sono inferiori a quelle della gtx che ne ha 24 a 575mhz...cmq superiori alla gts{gia adesso se r600 funzionasse le rops avrebbero maggiore capacita di calcolo di una gts}.
beh ovvio dal punto di vista del chip puro, in origine R600 doveva essere a 65nm, ma poi per vari problemi tecnici non è stato più possibile.
I 512bit si sono poi dimostrati all'atto pratico un pò esagerati, con RV670 hanno ridimensionato il tiro (ovviamente su R680 ritorneranno i 512bit), anche per aver minori costi e piazzarla ad un prezzo aggressivo. I consumi scenderanno e non sono solo di 10/15W pur avendo frequenze sopra gli 800 MHz, anche il solo fatto di avere un solo connettore pci-e la dice lunga sull'abbattimento ;)
che le capacità di 16 Rops sono inferiori a G80 quello è un dato certo, però che possano aver colmato il discorso dei cali di frame con AA è un bel passo (sarà ovviamente di verificare) e si troverebbe in netto vantaggio con R600 e non di poco. Dovrebbero anche essere ottimizzate le latenze del ringbus e òa gestione, che fa anche un pò da collo di bottiglia per i dati.
Poi considerà il clock di 825 MHz contro i 740 MHz di R600 che non è poco cmq. :)

HackaB321
15-10-2007, 09:57
Son daccordo, dovevano restare i rapporti di R580, che proprio (e solo) ora inizia a mostrare i netti vantaggi rispetto alle architetture più classiche di nVidia (G70/71).

Esatto. Basta vedere come va R580 con i giochi di adesso. Le 1950 restano signore schede IMHO preferibili anche oggi alle 2600-8600 visto lo schifo dei giochi "dx10" finora usciti. In passato le scelte più innovative di ati hanno pagato meno nell'immediato ma creato architetture più longeve ad alti livelli.
E' chiaro che il "pagato meno nell'immediato" non e mai stato così grave come con r600 ma piano a dare queste schede per morte per quando usciranno i veri giochi dx10. Geometry shaders, tessellation unit, aa via shaders,rapporto ALU:TU sono tutte soluzioni pensate per le dx10 vere e anche se allora ci saranno altre top di gamma chi ha comprato R600 oggi credo che potrà togliersi molte soddisfazioni.

DVD2005
15-10-2007, 10:01
già..

già..

gianni1879
15-10-2007, 10:01
http://www.legionhardware.com/document.php?id=693


...nuova rece su UT3...ciao

notare come senza AA sia quasi ai livelli di una 8800gtx,

http://www.legionhardware.com/Bench/Unreal_Tournament_3_Beta_Performance/Test_01.png

peccato non è stato possibile provare AA con la hd2900xt, e cmq anche su una 8800gtx hanno un impatto abbastanza pesante anche un semplice 2x

http://www.legionhardware.com/Bench/Unreal_Tournament_3_Beta_Performance/Test_04.png

Lino P
15-10-2007, 10:01
si però ti devo dire la verità...col tuo ragionamento ad un certo punto non si capisce + quale consideri la Fiat e quale l'Audi....prima sembra che tu dica che l'ati abbia centinaia di grammi....e invece le nvidia salgono meglio....poi invece dici che una scheda + consistente consente di fare oc senza problemi...insomma ci fai capire bene?? :D

Allora visto che forse non mi sono speigato bene, ed ho dato l'impressine di avere le idee un po' confuse, schemattizo, sperando di essere + chiaro...

ATI = Fiat = carrozzeria giocattolo = pcb essenziale = blocco disipazione minimale = scarsi con dissy stock
nVIDIA = Audi = bella mappata di metalli = consistenza = ottimi oc con dissy stock = poco casino

è chiaro il paragone.?

Athlon 64 3000+
15-10-2007, 10:03
il fatto di vedere che in AA in HL2:Ep2 vada come la X1950XTX mi lascia molto perplesso perchè anche se a 16 rop's e senza il circuito di resolve dovrebbero comunque essere più efficienti di quelli di R580 e credo che con i driver la situazione possa migliorare ma la 8800GTX con AA rimarrà comunque nettamente più veloce.

safendi
15-10-2007, 10:06
Esatto. Basta vedere come va R580 con i giochi di adesso. Le 1950 restano signore schede IMHO preferibili anche oggi alle 2600-8600 visto lo schifo dei giochi "dx10" finora usciti. In passato le scelte più innovative di ati hanno pagato meno nell'immediato ma creato architetture più longeve ad alti livelli.
E' chiaro che il "pagato meno nell'immediato" non e mai stato così grave come con r600 ma piano a dare queste schede per morte per quando usciranno i veri giochi dx10. Geometry shaders, tessellation unit, aa via shaders,rapporto ALU:TU sono tutte soluzioni pensate per le dx10 vere e anche se allora ci saranno altre top di gamma chi ha comprato R600 oggi credo che potrà togliersi molte soddisfazioni.

ma ora che verranno sfruttate non saranno + all'altezza x risoluzione tipo 1280 o 1650

eduw2k
15-10-2007, 10:09
domani ricevo la suddetta scheda sono curioso di fare un po di test contro la 8800 gts 640 del collega. ho scelto la 2900 per le innovazioni anche se non sfruttate ancora, voglio dare fiducia a questo mostriciattolo che scalda e consuma cone una stufa :rolleyes:

Iantikas
15-10-2007, 10:09
ho rifatto i test in Cod4 xò disabilitando l'AA...e quindi a 1680x1050 16xAF tutto al max...


2007-10-15 10:43:48 - iw3sp
Frames: 10489 - Time: 120000ms - Avg: 87.408 - Min: 48 - Max: 207

2007-10-15 10:48:06 - iw3sp
Frames: 8511 - Time: 120000ms - Avg: 70.925 - Min: 48 - Max: 104

2007-10-15 10:59:52 - iw3sp
Frames: 6963 - Time: 120000ms - Avg: 58.025 - Min: 39 - Max: 94


...in questo caso anke nella parte finale (la + pesante della demo) si mantiene una fludità ottimale (mentre con 4xAA, nn va a scatti, ma nn'è fluido in maniera ottimale neanke a 1280x1024)...

...come sempre risultati con la skeda in oc a 870/980...

...ciao

Athlon 64 3000+
15-10-2007, 10:12
per me il fatto che anche con G80 con un semplice AA 2x il frame rate crolla in quella maniera è dovuto al fatto che si tratta di un'AA forzato e quindi non eseguito bene.
Diciamo che se il gioco avesse avuto la possibilità di attivare l'AA G80 avrebbe un impatto con AA molto minore di quello che c'è nei test.
Probabilemte con la stessa maniera R600 avrebbe un impatto maggiore rispetto a G80.

gianni1879
15-10-2007, 10:15
per me il fatto che anche con G80 con un semplice AA 2x il frame rate crolla in quella maniera è dovuto al fatto che si tratta di un'AA forzato e quindi non eseguito bene.
Diciamo che se il gioco avesse avuto la possibilità di attivare l'AA G80 avrebbe un impatto con AA molto minore di quello che c'è nei test.
Probabilemte con la stessa maniera R600 avrebbe un impatto maggiore rispetto a G80.

si esatto ;)

mordsiger
15-10-2007, 10:21
ho fatto qualche test x vedere il cpu scaling cn l'r600 e l'impatto delle vram:

cpu Q6600 @ 4Ghz -> 3dmark06 14974 (890-2500 vga)
cpu @ std (2,4Ghz) => 3dmark06 12350 (890-2500 vga)
cpu @ std => 3dmark06 12175 (890-2000 vga)

le ram incidono solo 175 pt ( + 1,437%)...pochissimo
la cpu invece 2624 pt ( + 21,25%)...nn poco!

con un q6600 std è abbastanza cpu limited !!!!...voi che dite?

HackaB321
15-10-2007, 10:29
ma ora che verranno sfruttate non saranno + all'altezza x risoluzione tipo 1280 o 1650

Non possiamo saperlo. Le 1950 a 1 anno e più dalla loro uscita fanno girare oltre il limite della giocabilità a 1280 quasi tutti i giochi di adesso. E stanno sempre sopra le pari generazione Nvidia. E quel progetto ATi non era innovativo come R600.

mtk
15-10-2007, 10:43
Allora visto che forse non mi sono speigato bene, ed ho dato l'impressine di avere le idee un po' confuse, schemattizo, sperando di essere + chiaro...

ATI = Fiat = carrozzeria giocattolo = pcb essenziale = blocco disipazione minimale = scarsi con dissy stock
nVIDIA = Audi = bella mappata di metalli = consistenza = ottimi oc con dissy stock = poco casino

è chiaro il paragone.?

io continuo a sostenere che hai le idee confuse :D soprattutto sulle auto(probabilmente guardi solo l estetica),paragoni due marchi appartenenti a due fasce ben distinte e anche per quanto riguarda la differenze tra ati e nvidia dovresti chiarire un paio di cose,ti riferisci a schede come da specifica o a schede modificate da produttori esterni?come blocco dissipazione intendi la rumorosita' della ventola o le reali capacita' dissipanti dello scambiatore?perche' se nel primo caso mi paragoni una peak con una gainward e' ovvio che la differenza di componentistica e assemblaggio e' differente.nel secondo caso se giudichi in base alla rumorosita' della ventola e non in base alle capacita' di smaltire il calore dai solo un giudizio sul fastidio del rumore senza prendere in esame la reale efficacia.
ps.va che non ti ho preso di mira,ci mancherebbe :D

Catan
15-10-2007, 10:50
http://www.legionhardware.com/document.php?id=693


...nuova rece su UT3...ciao

mmm peccato la prova senza AA.
e come immaginavo infatti hanno provato con xp sp2.
infatti in dx10 utIII supporta AA via shader mentre sotto xp con le r600 non abilita l AA.
cosa detta piu volte dai programmatori dell-ut engine III che su xp l aa in shader core non sarebbe stato abilitato.
cmq un altra riprova che con utIII engine r600 lo digerisce molto bene staccando la 8800gts di 20fps e stando sotto la gtx solo di 10.
stesso comportamento per le hd2600xt che riescono a staccare se pur di poco 2 o 3 fps le 8600gts...
peccato per le 7900 schede ancora valide ma che riescono a mettere su solo 30fps invece cmq continua a stupirmi la x1950pro che si fa ancora i suoi onesti 52fps....quindi secondo me chi ha ancora una x1900xt o una x1950xt sicuramente si fa tranquillamente piu di 60fps al secondo con settaggi alti.
evedentemente cmq utIII engine e un motore che viene molto ben digerito da tutta la gamma ati.

Catan
15-10-2007, 10:54
notare come senza AA sia quasi ai livelli di una 8800gtx,



peccato non è stato possibile provare AA con la hd2900xt, e cmq anche su una 8800gtx hanno un impatto abbastanza pesante anche un semplice 2x



si sicuramete aa in generale ha un impatto pesante difatti passare dal 0x al 2x impatta molto sulle prestazioni{quasi un 40% di meno} ma se ci avete fatto caso poi scala molto bene perdendo si e no 10fps dal 2x al 4x e lo stesso dal 4x all 8x

cmq na prova sotto vista potevano pure farla e farci vedere come andava ut con aa.

mo quasi quasi domani la faccio io tiro giu la demo a la provo sia sotto la partizione xp che su quella vista

mordsiger
15-10-2007, 10:58
si sicuramete aa in generale ha un impatto pesante difatti passare dal 0x al 2x impatta molto sulle prestazioni{quasi un 40% di meno} ma se ci avete fatto caso poi scala molto bene perdendo si e no 10fps dal 2x al 4x e lo stesso dal 4x all 8x

cmq na prova sotto vista potevano pure farla e farci vedere come andava ut con aa.

mo quasi quasi domani la faccio io tiro giu la demo a la provo sia sotto la partizione xp che su quella vista

falla...sarebbe interessante vedere un gioco che sfrutta aa via shader con r600....

gianni1879
15-10-2007, 11:01
falla...sarebbe interessante vedere un gioco che sfrutta aa via shader con r600....

sisi infatti chi può la deve fare sta prova ;)

eduw2k
15-10-2007, 11:04
io ho u vista 64bit ... spettiamo domani sera :muro:

Iantikas
15-10-2007, 11:26
si sicuramete aa in generale ha un impatto pesante difatti passare dal 0x al 2x impatta molto sulle prestazioni{quasi un 40% di meno} ma se ci avete fatto caso poi scala molto bene perdendo si e no 10fps dal 2x al 4x e lo stesso dal 4x all 8x

cmq na prova sotto vista potevano pure farla e farci vedere come andava ut con aa.

mo quasi quasi domani la faccio io tiro giu la demo a la provo sia sotto la partizione xp che su quella vista

è inutile ke la fai questa prova...la demo è una beta, è solo DX9, nn supporta l'AA e anke se la metti su Vista nn cambierà niente...


...la Epic ha promesso ke la seconda realease della demo (la demo ufficiale nn beta) e il gioco completo supporteranno invece l'AA...

...e in base a quest'ultima affermazione nn mi è parso d sentire distinzioni DX9/DX10 nè affermazioni su come verrà implementato...ossia, nn ho mai letto nessun comunicato ke parlasse d AA solo x la versione DX10 nè tantomeno di AA fatto via shader (x es. la 8800GTX nn credo ke, forzandolo da driver e rinominando l'exe in bioshock, lo appliki tramite shader e la drastica caduta del framerate penso sia dovuta esclusivamente al cessare dell'ottimizzazioni ke sussiste rinominando l'eseguibile)...

...se mi potessi linkare qualcosa in merito (ke probabilmente mi è sfuggito) sarebbe gradito...ciao

Free Gordon
15-10-2007, 11:46
A quanto sembra (dalle nuove speculazioni) sembra che con le nuove revisioni , RV670, il problema del calo di performance con AA attivato dovrebbe sparire, o comunque diminuire. Bug Hardware risolto, forse :sperem:

Non c'è bug hw, manca la circuiteria per l'AA resolve nelle RBE (mentre fino ad R580 c'era).

R600 è stato progettato per migliorare di un 30% le prestazioni di R580 (già ottime di suo) nelle applicazioni dx9 con filtri o meno (e questo succede, e anche oltre, a meno che i frames non siano già ampiamente oltre i 60 con R580) e per andare nella direzione delle dx10, per cui qualcosa che alla base è molto differente da prima. :)

In questo 3d ci sono persone che continuano a fare rimostranze perchè R600 performa "non come vorrebbero".
Se avessi avuto una 1900XT non avrei mai pensato di comprare una scheda dx10 per giocare ai titoli dx9 (a meno che non intenda giocare sempre a 1920x1200 con filtri :asd: ).

Il caso di R600 è proprio questo: una scheda che si trova schiacciata fra le alte aspettative dei suoi "supporters" e gli obiettivi che si è invece prefissa ATI (che ovviamente non si aspettava un'nVidia ancora così attenta alle dx9/alte res e alle fixed functions).

bleto
15-10-2007, 11:56
Giro qui la domanda che avevo postato male (grazie wiltort). Buon giorno a tutti,ieri usando il pc si è staccata dalla VGA la pellicola trasparente che ricopre il dissipatore,per intenderci quella sopra al logo S.T.O.L.K.E.R delle asus hd 2900 xt ,la domanda è questa.Ma serve solo a proteggere da righe e graffi il dissi in fase di produzione oppure fa parte del adesivo sopra la VGA ? Grazie a chi mi sa rispondere Ciao :)

Free Gordon
15-10-2007, 12:11
esatto, condivido al 100%: in particolare l'affermazione in neretto (che tra l'altro, non per dire "l'avevo detto" era stato sottolineato sin dal lancio della 2900xt da tanti tra cui modestamente me stesso --sicuramente dopo le affermazioni di uno che ad Ati ci lavora, mi pare, o perlomeno mi pare di capire sia molto vicino a quell'ambiente, e non a chiacchere).

Ciò che "voi" :D non capite, è che ATI le scelte progettuali le fa sempre in tendenza futura, per creare schede longeve. :)
Non le fa unicamente per avere il prodotto fuori nei tempi giusti e con prestazioni raddoppiate, sui software correnti, rispetto alla generazione passata. ;) (questa è sempre stata nVidia).

E' su quel particolare che ATI ha costruito il suo mercato ed è cresciuta, all'ombra del gigante nVidia. Da R200 in poi (ma anche prima) la strada dell'innovazione è sempre stata una sua priorità ed è questo ciò che importa, parlando di R600.

Senza quella caratteristica, ATI non avrebbe mai avuto mercato (perchè non poteva assolutamente competere a livello economico, con Nvidia...e sarebbe stata solo un'altra S3) e in questa generazione probabilmente ci saremmo trovati non 1, ma ben 2 o 3 G80... :asd: (o cmq architetture molto simili)


ps.
L'unica volta che ATI si è permessa di fare una scheda "vecchia" per questioni di tempo (R420, perchè l'hanno dopo aveva già pronta una scheda simili-sm4.0 come Xenos ^_^ ), è stata letteralmente massacrata da più parti per non aver proposto una soluzione "alla pari" della concorrente... :asd:
(scheda che tra l'altro, farà girare anche Crysis :D ).

safendi
15-10-2007, 12:17
Ciò che "voi" :D non capite, è che ATI le scelte progettuali le fa sempre in tendenza futura, per creare schede longeve. :)
Non le fa unicamente per avere il prodotto fuori nei tempi giusti e con prestazioni raddoppiate, sui software correnti, rispetto alla generazione passata. ;) (questa è sempre stata nVidia).

E' su quel particolare che ATI ha costruito il suo mercato ed è cresciuta, all'ombra del gigante nVidia. Da R200 in poi (ma anche prima) la strada dell'innovazione è sempre stata una sua priorità ed è questo ciò che importa, parlando di R600.

Senza quella caratteristica, ATI non avrebbe mai avuto mercato (perchè non poteva assolutamente competere a livello economico, con Nvidia...e sarebbe stata solo un'altra S3) e in questa generazione probabilmente ci saremmo trovati non 1, ma ben 2 o 3 G80... :asd: (o cmq architetture molto simili)


ps.
L'unica volta che ATI si è permessa di fare una scheda "vecchia" per questioni di tempo (R420, perchè l'hanno dopo aveva già pronta una scheda simili-sm4.0 come Xenos ^_^ ), è stata letteralmente massacrata da più parti per non aver proposto una soluzione "alla pari" della concorrente... :asd:
(scheda che tra l'altro, farà girare anche Crysis :D ).

hai perfettamente ragione, non è longeva la 8800, è solo 1 anno che sta al top e ha ancora molto da dire. :cool:

Free Gordon
15-10-2007, 12:22
per me il fatto che anche con G80 con un semplice AA 2x il frame rate crolla in quella maniera è dovuto al fatto che si tratta di un'AA forzato e quindi non eseguito bene.
Diciamo che se il gioco avesse avuto la possibilità di attivare l'AA G80 avrebbe un impatto con AA molto minore di quello che c'è nei test.
Probabilemte con la stessa maniera R600 avrebbe un impatto maggiore rispetto a G80.


Non è che si tratti di un AA forzato, è che vien fatto via shader, dato che col deferred shading le rops non possono lavorare sull'AA. ;)

Per cui nemmeno la circuiteria classica (che R600 cmq non ha) può servire. ;)

Chi gestisce meglio l'AA shader tra R600 e G80? :D

Boh, vedremo... ^_^ ma un'idea ce l'avrei. :) Più i calcoli richiederanno precisione, più R600 perderà meno frames rispetto alla concorrente.

TecnoWorld8
15-10-2007, 12:23
l'unica cosa che posso dire personalmente, è che ultimamente AMD/ATi non ha fatto che deludermi. prima l'uscita di R600, che credevo avrebbe sbaragliato G80, e invece per stessa decisione della casa (prezzo) si è posizionato a livello di una GTS, scheda già sul mercato da 7 mesi, a quell'epoca.

poi l'annuncio "hyped" del "do you dare", risoltosi in una bolla di sapone.

infine questi driver 7.10, chiamati boriosamente "shoot 'em up" che sembravano la manna, ma per la maggior parte degli utenti hanno fornito incrementi minimi di prestazioni, su sistemi tipici.

insomma, mi pare che sia più l'hype che crea, rispetto alla validità delle soluzioni che mette in essere.

ancora oggi dico che, per 250€ o meno, comprerei una R600 usata, piuttosto che una GTS, ma certo è che se per caso nVidia, con la prossima GT, la eguaglierà o supererà, a quel punto la situazione sarà davvero grigia. e non penso davvero che una RV670 possa risollevare la situazione...dato che mai un chip RV è stato top di gamma. Al limite, andrà come R600 e consumerà meno.

MonsterMash
15-10-2007, 12:25
Ritirata la scheda di ritorno dall'RMA. Si tratta di una scheda completamente nuova, e non della mia riparata. Tanto che nella scatola c'è un nuovo coupon sigillato per la black box della valve. Che significa che ora ho due copie del gioco :P

Ciao

Free Gordon
15-10-2007, 12:30
hai perfettamente ragione, non è longeva la 8800, è solo 1 anno che sta al top e ha ancora molto da dire. :cool:

Al di là del discorso su G80 (che cmq è una bella GPU) che non può dimostrare nulla dato che i giochi dx10 non sono mai usciti :D (è come dire: anche nv30 sarebbe stata una buona scheda se i giochi dx9 fossero usciti solo a 2 anni dalla sua presentazione ;) ), io potrei dire la stessa cosa che hai detto tu, per R580, ma questa volta a ragion veduta! ;)

Ed era questo che intendevo con l'intervento sopra, ma evidentemente non mi hai compreso. ^_^

Il problema delle testate giornalistiche è che testano le schede dell'ultim'ora, dimenticandosi delle generazioni passate, imho vanificando in gran parte l'ottimo lavoro che ATI ha fatto negli ultimi 6 anni.

Sono filosofie costruttive differenti, ognuno privilegi quella che preferisce (senza flammare come fai sempre, per favore, sembri un bimbo di 12 anni quando posti così infervorato... :fagiano: ).

HackaB321
15-10-2007, 12:32
Ciò che "voi" :D non capite, è che ATI le scelte progettuali le fa sempre in tendenza futura, per creare schede longeve. :)
Non le fa unicamente per avere il prodotto fuori nei tempi giusti e con prestazioni raddoppiate, sui software correnti, rispetto alla generazione passata. ;) (questa è sempre stata nVidia).

E' su quel particolare che ATI ha costruito il suo mercato ed è cresciuta, all'ombra del gigante nVidia. Da R200 in poi (ma anche prima) la strada dell'innovazione è sempre stata una sua priorità ed è questo ciò che importa, parlando di R600.

Senza quella caratteristica, ATI non avrebbe mai avuto mercato (perchè non poteva assolutamente competere a livello economico, con Nvidia...e sarebbe stata solo un'altra S3) e in questa generazione probabilmente ci saremmo trovati non 1, ma ben 2 o 3 G80... :asd: (o cmq architetture molto simili)


ps.
L'unica volta che ATI si è permessa di fare una scheda "vecchia" per questioni di tempo (R420, perchè l'hanno dopo aveva già pronta una scheda simili-sm4.0 come Xenos ^_^ ), è stata letteralmente massacrata da più parti per non aver proposto una soluzione "alla pari" della concorrente... :asd:
(scheda che tra l'altro, farà girare anche Crysis :D ).


Completamente d'accordo con 2 precisazioni:

1)Più che schede longeve dovremmo parlare di progetti longevi: le x1800 e le x1950 fanno parte dello stesso progetto, eppure i miglioramenti dalle une alle altre è impressionante. La sostanza è che r500 è un progetto uscito 2 anni fa esatti e anche lì con molte polemiche (ricordate il ritardo con cui uscì rispetto alle 7800?): i suoi upgrade (1950) riescono ancora a stupire con i giochi di oggi. E quello che impressiona non è la differenza tra r500 e le pari generazione nvidia con i giochi di allora (che era molto ridotta e dipendeva dai giochi) ma con i giochi di adesso.
2)Il problema di R600 è però che mai in passato il divario all'uscita con nvidia era stato ampio come adesso. E la mancanza di una xtx da buttare nello scontro è un notevole danno di immagine soprattutto.

Iantikas
15-10-2007, 12:33
Non c'è bug hw, manca la circuiteria per l'AA resolve nelle RBE (mentre fino ad R580 c'era).

R600 è stato progettato per migliorare di un 30% le prestazioni di R580 (già ottime di suo) nelle applicazioni dx9 con filtri o meno (e questo succede, e anche oltre, a meno che i frames non siano già ampiamente oltre i 60 con R580) e per andare nella direzione delle dx10, per cui qualcosa che alla base è molto differente da prima. :)

In questo 3d ci sono persone che continuano a fare rimostranze perchè R600 performa "non come vorrebbero".
Se avessi avuto una 1900XT non avrei mai pensato di comprare una scheda dx10 per giocare ai titoli dx9 (a meno che non intenda giocare sempre a 1920x1200 con filtri :asd: ).

Il caso di R600 è proprio questo: una scheda che si trova schiacciata fra le alte aspettative dei suoi "supporters" e gli obiettivi che si è invece prefissa ATI (che ovviamente non si aspettava un'nVidia ancora così attenta alle dx9/alte res e alle fixed functions).


c sono persone ke avevano una x1900xtx ke (purtroppo) nn li soddisfava + (ogni riferimento a me stesso è puramente casuale :D )...


...già a maggio/giugno 2007 erano usciti parekki titoli [x es. TDU, R6V, Stalker, DIRT, Lost Planet] in cui r580 sentiva tutto il peso dei suoi 16 mesi passati dentro al case nn consentendomi + nè d giocare alla nativa del mio monitor (1680x1050) nè, pur scendendo d ris, a dettaglio max con fluidità ottimale...

...nn soddisfando quindi + le mie esigenze già da svariati mesi decisi di prendere una skeda d passaggio (R600) da tenere x 5/6 mesi finkè nn sarebbero uscite le nuove arkitetture (ke allora erano previste x novembre 2007)...fortunatamete nei gioki suddetti, grazie anke all'oc, è riuscita in ciò ke R580 nn poteva + (ris nativa, max dettaglio, AF e, LP a parte, anke il "canonico" 4xAA)...

...quindi almeno nei suoi primi 4 mesi d vita (in base a fatti e nn fuffa) posso dire ke la skeda mi ha soddisfatto in DX9...cosa ke, attualmente, sicuramente nn potrei dire se invece l'avessi aquistata x le DX10...

http://www.pcper.com/article.php?type=expert&aid=463

...quasi ad aver posseduto una sfera d cristallo ebbi la ferma convinzione ke arrivati i titoli d fine anno [tipo Jericho, CoD4, WiC] la skeda nn avrebbe avuto + le potenzialità x soddisfare le mie esigenze e questa infatti è la situazione ke si sta propalando...


...tutto questo cmq a prescindere dall'estrema assurdità ke sussiste nel vedere una skeda d una gen successiva andare, in un numero nn irrisorio d titoli, in maniera similare a quella della gen precedente e, come HL2:EP2 ha prontamente testimoniato, nn certo x una carenza nell'ottimizzazione dei driver ma bensì x degli evidenti limiti nel progetto...


...ed è interessante notare come i "supporters" (come li definisci tu) parlino di una skeda DX10 oriented, d un giusto confronto x livello tecnologico con la GTX quando, e sopratutto, in ambito DX10 si rivela fortemente aldisotto delle aspettative...


...ma la risp bella e pronta naturalmente sarà ke questi nn sono gioki DX10 e bisogna attendere ke escano i veri gioki ke abbiano il diritto d kiamarsi tali...peccato ke quando usciranno R600 sarà quasi un cimelio storico e allora, SE dovesse rivelarsi realmente superiore, poco importerà xkè entrambe cmq nn saranno in grado d far godere appieno tali gioki.

Quoziente
15-10-2007, 12:37
Anch'io penso che l'ottica di ATI sia stata quella di proporre un prodotto che potesse beneficiare di giochi full DX10. Purtroppo però, a 9 mesi dal lancio di Vista, giochi full DX10 non esistono, complice anche e soprattutto Microsoft che ha deciso di non rilasciare le DX10 per XP. A mio avviso finché Vista non raggiungerà una diffusione superiore a XP l'unico gioco full DX10 che vedremo sarà Alan Wake... Non è detto cmq che la 8800 sia una chiavica a fare AA via shader, se la 8800 se la cavasse a livello della 2900 anche in questo campo allora a sto giro ATI ha proprio toppato...
Sul fatto che ad oggi le 8800 siano superiori alla 2900 non discuto, basta guardare i bench...
C'é da considerare anche che vista la diffusione estremamente lenta di pc DX10 (quindi con vista e una scheda video DX10), è praticamente certo che quando tutti i giochi saranno full DX10 r600 sarà superata (serie 9000 di Nvidia e probabilmente serie 3000 di ATI).
Francamente ammetto di non capire ancora se questa scheda è una strategia di ATI per il futuro prossimo o se invece hanno proprio toppato...

safendi
15-10-2007, 12:40
Al di là del discorso su G80 (che cmq è una bella GPU) che non può dimostrare nulla dato che i giochi dx10 non sono mai usciti :D (è come dire: anche nv30 sarebbe stata una buona scheda se i giochi dx9 fossero usciti solo a 2 anni dalla sua presentazione ;) ), io potrei dire la stessa cosa che hai detto tu, per R580, ma questa volta a ragion veduta! ;)

Ed era questo che intendevo con l'intervento sopra, ma evidentemente non mi hai compreso. ^_^

Il problema delle testate giornalistiche è che testano le schede dell'ultim'ora, dimenticandosi delle generazioni passate, imho vanificando in gran parte l'ottimo lavoro che ATI ha fatto negli ultimi 6 anni.

Sono filosofie costruttive differenti, ognuno privilegi quella che preferisce (senza flammare come fai sempre, per favore, sembri un bimbo di 12 anni quando posti così infervorato... :fagiano: ).
:blah: :ahahah:

Free Gordon
15-10-2007, 12:41
c sono persone ke avevano una x1900xtx ke (purtroppo) nn li soddisfava + (ogni riferimento a me stesso è puramente casuale :D )...

Tu sei lo 0.1% del mercato, non si fanno programmi ingegneristici da fantamiliardi per quelli come te. :D

Per uno come te la cosa migliore è comprare sempre e cmq la cosa più veloce al momento (per cui G80 all'inizio dell'anno) e upgradare di frequente (che vuol dire cambiare VGA più di una volta ogni due anni, almeno).

Free Gordon
15-10-2007, 12:44
Completamente d'accordo con 2 precisazioni:
1)Più che schede longeve dovremmo parlare di progetti longevi: le x1800 e le x1950 fanno parte dello stesso progetto, eppure i miglioramenti dalle une alle altre è impressionante. La sostanza è che r500 è un progetto uscito 2 anni fa esatti e anche lì con molte polemiche (ricordate il ritardo con cui uscì rispetto alle 7800?): i suoi upgrade (1950) riescono ancora a stupire con i giochi di oggi. E quello che impressiona non è la differenza tra r500 e le pari generazione nvidia con i giochi di allora (che era molto ridotta e dipendeva dai giochi) ma con i giochi di adesso.

R520, vuoi dire.
R500 è una scheda a 48 shader unificati, uscita in contemporanea con R520, tecnologia esclusiva di xbox360 per 1 anno (e che ha qualità molto più vicine ad R580, anzi le supera spesso, che ad R520 ;) ).

Free Gordon
15-10-2007, 12:45
:blah: :ahahah:

;)

MonsterMash
15-10-2007, 12:45
ancora oggi dico che, per 250€ o meno, comprerei una R600 usata, piuttosto che una GTS, ma certo è che se per caso nVidia, con la prossima GT, la eguaglierà o supererà, a quel punto la situazione sarà davvero grigia. e non penso davvero che una RV670 possa risollevare la situazione...dato che mai un chip RV è stato top di gamma. Al limite, andrà come R600 e consumerà meno.

Ho appena visto che la 2900pro (identica alla 2900xt eccetto che per la frequenza del core) costa 240 euro nuova. Considerato che pare che tutte raggiungano senza problemi le frequenze della xt, direi che potresti anche prenderla visto il raggionamento che hai appena fatto :P

halduemilauno
15-10-2007, 12:59
Ho appena visto che la 2900pro (identica alla 2900xt eccetto che per la frequenza del core) costa 240 euro nuova. Considerato che pare che tutte raggiungano senza problemi le frequenze della xt, direi che potresti anche prenderla visto il raggionamento che hai appena fatto :P

perchè allo stesso prezzo c'è un'altra scheda che senza oc è gia competitiva* con la xt. poi anch'essa si oc e...a questo punto, si fa bene(parlo per ambedue le preferenze)ad aspettare le nuove uscite di ottobre novembre.



* sempre alle solite ris. che ricordo sono le + diffuse.

halduemilauno
15-10-2007, 13:04
c sono persone ke avevano una x1900xtx ke (purtroppo) nn li soddisfava + (ogni riferimento a me stesso è puramente casuale :D )...


...già a maggio/giugno 2007 erano usciti parekki titoli [x es. TDU, R6V, Stalker, DIRT, Lost Planet] in cui r580 sentiva tutto il peso dei suoi 16 mesi passati dentro al case nn consentendomi + nè d giocare alla nativa del mio monitor (1680x1050) nè, pur scendendo d ris, a dettaglio max con fluidità ottimale...

...nn soddisfando quindi + le mie esigenze già da svariati mesi decisi di prendere una skeda d passaggio (R600) da tenere x 5/6 mesi finkè nn sarebbero uscite le nuove arkitetture (ke allora erano previste x novembre 2007)...fortunatamete nei gioki suddetti, grazie anke all'oc, è riuscita in ciò ke R580 nn poteva + (ris nativa, max dettaglio, AF e, LP a parte, anke il "canonico" 4xAA)...

...quindi almeno nei suoi primi 4 mesi d vita (in base a fatti e nn fuffa) posso dire ke la skeda mi ha soddisfatto in DX9...cosa ke, attualmente, sicuramente nn potrei dire se invece l'avessi aquistata x le DX10...

http://www.pcper.com/article.php?type=expert&aid=463

...quasi ad aver posseduto una sfera d cristallo ebbi la ferma convinzione ke arrivati i titoli d fine anno [tipo Jericho, CoD4, WiC] la skeda nn avrebbe avuto + le potenzialità x soddisfare le mie esigenze e questa infatti è la situazione ke si sta propalando...


...tutto questo cmq a prescindere dall'estrema assurdità ke sussiste nel vedere una skeda d una gen successiva andare, in un numero nn irrisorio d titoli, in maniera similare a quella della gen precedente e, come HL2:EP2 ha prontamente testimoniato, nn certo x una carenza nell'ottimizzazione dei driver ma bensì x degli evidenti limiti nel progetto...


...ed è interessante notare come i "supporters" (come li definisci tu) parlino di una skeda DX10 oriented, d un giusto confronto x livello tecnologico con la GTX quando, e sopratutto, in ambito DX10 si rivela fortemente aldisotto delle aspettative...


...ma la risp bella e pronta naturalmente sarà ke questi nn sono gioki DX10 e bisogna attendere ke escano i veri gioki ke abbiano il diritto d kiamarsi tali...peccato ke quando usciranno R600 sarà quasi un cimelio storico e allora, SE dovesse rivelarsi realmente superiore, poco importerà xkè entrambe cmq nn saranno in grado d far godere appieno tali gioki.

:eek:

Free Gordon
15-10-2007, 13:08
ma la risp bella e pronta naturalmente sarà ke questi nn sono gioki DX10 e bisogna attendere ke escano i veri gioki ke abbiano il diritto d kiamarsi tali...peccato ke quando usciranno R600 sarà quasi un cimelio storico e allora, SE dovesse rivelarsi realmente superiore, poco importerà xkè entrambe cmq nn saranno in grado d far godere appieno tali gioki.


Si giudica quel che si vede: non mi pare che i "giochi" :asd: dx10 usciti fino ad oggi abbiano una grafica così differente dai giochi dx9 usciti fino a ieri...

Le cose più belle graficamente ultimamente le ho viste su console nel 2005 (PGR3) e 2006 (Gears of War) da lì non mi pare che ci siamo smossi più di tanto su tutti i fronti (pc e console).

Ora sarà il momento con Crysis di dare una nuova svolta ma ancora di DX9, in maniera preponderante, si parlerà. ;)

Konrad76
15-10-2007, 13:18
Si giudica quel che si vede: non mi pare che i "giochi" :asd: dx10 usciti fino ad oggi abbiano una grafica così differente dai giochi dx9 usciti fino a ieri...

Le cose più belle graficamente ultimamente le ho viste su console nel 2005 (PGR3) e 2006 (Gears of War) da lì non mi pare che ci siamo smossi più di tanto su tutti i fronti (pc e console).

Ora sarà il momento con Crysis di dare una nuova svolta ma ancora di DX9, in maniera preponderante, si parlerà. ;)

Quoto in pieno.....e per fortuna che parlano già da tempo di dx10.1;)

TecnoWorld8
15-10-2007, 13:26
Ho appena visto che la 2900pro (identica alla 2900xt eccetto che per la frequenza del core) costa 240 euro nuova. Considerato che pare che tutte raggiungano senza problemi le frequenze della xt, direi che potresti anche prenderla visto il raggionamento che hai appena fatto :P

ci avevo seriamente pensato; sai perchè non la prendo? perchè sull'usato, la pro varrà poi pochissimo. una XT, se la trovassi ora a 250€ usata, tra 3 mesi ne varrebbe ancora 200€ o più e avrei perso pochissimo...una PRO, invece, varrebbe 150€ o meno...

per me, chiaramente, sarebbe una scheda di transizione che mi permetterebbe di giocare ad un po' di titoli che ho lasciato in arretrato, fino all'arrivo di una scheda "come dico io"

fukka75
15-10-2007, 13:32
Non so se è già stato postato, ma è uscita la settimana scorsa la patch DX10 per la versione europea di Call of Juarez (tre mesi fa era uscita per la versione nord americana), almeno si può vedere davvero come va il gioco, al di là del benchmark: bisogna prima aggiornare il gioco alla 1.1.0.0 quindi applicare la patchDX10
http://www.jeuxpo.com/afficher_news-9817-call_of_juarez__le_pack_dx_10.html

pioss~s4n
15-10-2007, 13:34
ribadisco da sempre che con una serie 1900 di ATI si giocava e si gioca a tutto.. e che R600 è un progetto prematuro oltre che inutile. Con l'aggravante di possedere tutti quei difetti che lo rendono poco appetibile alla stragrande maggioranza delle persone..

ciò nonostante una 2950XT a prezzo onesto mi alletterebbe non poco. :)

+Lonewolf+
15-10-2007, 13:35
ribadisco da sempre che con una serie 1900 di ATI si giocava e si gioca a tutto.. e che R600 è un progetto prematuro oltre che inutile. Con l'aggravante di possedere tutti quei difetti che lo rendono poco appetibile alla stragrande maggioranza delle persone..

ciò nonostante una 2950XT a prezzo onesto mi alletterebbe non poco. :)

nn capisco...prematuro,inutile,difettoso...???

gianni1879
15-10-2007, 13:36
Ciò che "voi" :D non capite, è che ATI le scelte progettuali le fa sempre in tendenza futura, per creare schede longeve. :)
Non le fa unicamente per avere il prodotto fuori nei tempi giusti e con prestazioni raddoppiate, sui software correnti, rispetto alla generazione passata. ;) (questa è sempre stata nVidia).

E' su quel particolare che ATI ha costruito il suo mercato ed è cresciuta, all'ombra del gigante nVidia. Da R200 in poi (ma anche prima) la strada dell'innovazione è sempre stata una sua priorità ed è questo ciò che importa, parlando di R600.

Senza quella caratteristica, ATI non avrebbe mai avuto mercato (perchè non poteva assolutamente competere a livello economico, con Nvidia...e sarebbe stata solo un'altra S3) e in questa generazione probabilmente ci saremmo trovati non 1, ma ben 2 o 3 G80... :asd: (o cmq architetture molto simili)


ps.
L'unica volta che ATI si è permessa di fare una scheda "vecchia" per questioni di tempo (R420, perchè l'hanno dopo aveva già pronta una scheda simili-sm4.0 come Xenos ^_^ ), è stata letteralmente massacrata da più parti per non aver proposto una soluzione "alla pari" della concorrente... :asd:
(scheda che tra l'altro, farà girare anche Crysis :D ).

non mi pare che si sia detto che R600 non è un progetto che riguardi il futuro, anzi è stato sottolineato più volte che è incentrata sulle Dx10, basta vedere appunto l'architettura per accorgersene. Colpa anche la mancanza di titoli nativi dx10 e non porting da dx9.
Che Ati ha sempre avuto questa tendenza all'innovazione è sempre risaputo, appunto citi R200, però e pur vero che a volte questo sforzo, come ho anche detto prima, non ripaga nel presente, è innegabile che ci si aspettava di più su alcuni punti di vista, e forse era meglio una scelta più conservativa/tradizionale. Ovviamente ogni scelta ha i pro ed i contro, G80 è presente sul mercato da un anno circa senza avere uan degna avversaria, se R600 fosse stato superiore sicuramente ci sarebbero state evoluzioni da parte di Nvidia.
Cmq che Ati in un certo senso si è accorta dello "sbaglio" è anche innegabile tanto è vero che sta buttando molto presto RV670 con alcune migliorie, e credo non si aspettava da parte di Nvidia un chip così potente.

Il discorso dell'AA tradizionale, non si è parlato di bug hw ma appunto dell'incapacità di eseguirlo in maniera classica data dalla mancanza della circuiteria adatta, cosa che sembra essere stata implementata in RV670 (ancora non si sa come e in che maniera).
;)

Quoziente
15-10-2007, 13:57
non mi pare che si sia detto che R600 non è un progetto che riguardi il futuro, anzi è stato sottolineato più volte che è incentrata sulle Dx10, basta vedere appunto l'architettura per accorgersene. Colpa anche la mancanza di titoli nativi dx10 e non porting da dx9.
Che Ati ha sempre avuto questa tendenza all'innovazione è sempre risaputo, appunto citi R200, però e pur vero che a volte questo sforzo, come ho anche detto prima, non ripaga nel presente, è innegabile che ci si aspettava di più su alcuni punti di vista, e forse era meglio una scelta più conservativa/tradizionale. Ovviamente ogni scelta ha i pro ed i contro, G80 è presente sul mercato da un anno circa senza avere uan degna avversaria, se R600 fosse stato superiore sicuramente ci sarebbero state evoluzioni da parte di Nvidia.
Cmq che Ati in un certo senso si è accorta dello "sbaglio" è anche innegabile tanto è vero che sta buttando molto presto RV670 con alcune migliorie, e credo non si aspettava da parte di Nvidia un chip così potente.

Il discorso dell'AA tradizionale, non si è parlato di bug hw ma appunto dell'incapacità di eseguirlo in maniera classica data dalla mancanza della circuiteria adatta, cosa che sembra essere stata implementata in RV670 (ancora non si sa come e in che maniera).
;)

Quoto su tutto tranne che sulla parte in grassetto. Stai tranquillo che negli stabilimenti ATI sapevano benissimo contro cosa andavano a scontrarsi. La prima cosa che una ditta fa non appena la concorrenza rilascia un nuovo prodotto è prenderlo e analizzarlo a fondo...

calabar
15-10-2007, 14:14
E' su quel particolare che ATI ha costruito il suo mercato ed è cresciuta, all'ombra del gigante nVidia. Da R200 in poi (ma anche prima) la strada dell'innovazione è sempre stata una sua priorità ed è questo ciò che importa, parlando di R600.
Anche da prima direi ;)
Io ho un R100 DDR, prima generazione di radeon, che le prendeva dalla concorrente geffo2gts. Però in multitexture la legnava a sua volta: peccato che nessun gioco suportasse o abbia suportato il multitexture in tempo utile...
Nella pratica andava peggio, nonostante un miglior supporto 32bit colore nativo.

Konrad76
15-10-2007, 14:14
Quoto su tutto tranne che sulla parte in grassetto. Stai tranquillo che negli stabilimenti ATI sapevano benissimo contro cosa andavano a scontrarsi. La prima cosa che una ditta fa non appena la concorrenza rilascia un nuovo prodotto è prenderlo e analizzarlo a fondo...

Hehehhehehe quoto ....... mi ricordo di un viaggetto nei reparti R&D di Aprilia qualche hanno fà, quando l'azienda dei miei era loro fornitore....e mi ricordo di almeno 4 o 5 scooter giappo tutti smontati ed analizzati pezzo x pezzo.... e sulla mia curiosità x la presenza di questi "concorrenti" il signore che ci accompagnava driblo ogni possibile risposta cambiando più volte discorso....
Scusate l'Ot ma credo anche io che la concorrenza faccia normalmente test e smontaggi su componenti dei rivali x analizzare e prendere spunti..

belin
15-10-2007, 14:28
Recensione decisamente interessante da analizzare:

http://www.hartware.de/review_755_1.html

Presenti tutte le vga, non solo la HD2900 PRO del titolo.


;)

Lino P
15-10-2007, 14:38
Recensione decisamente interessante da analizzare:

http://www.hartware.de/review_755_1.html

Presenti tutte le vga, non solo la HD2900 PRO del titolo.


;)

pensi sia attendibile...?

halduemilauno
15-10-2007, 14:39
Recensione decisamente interessante da analizzare:

http://www.hartware.de/review_755_1.html

Presenti tutte le vga, non solo la HD2900 PRO del titolo.


;)

per niente. xp e driver 158 nonche assenza di giochi moderni dx10.

Konrad76
15-10-2007, 14:48
Io rilancio l'idea che avevo buttato li qualche post fà....perchè non fare test per uso frutto solo nostro???
Io posso offrire il posto, un pc con xp e uno identico con vista magari, sistemi puliti puliti senza su niente, posso ofrire delle 8800 gts, se serve anche una ultra, mi basta che voi siate d'accordo, che qualche buon anima porti qualche 2900xt/pro ci mettiamo d'accordo con cosa le testiamo e utilizziamo gli ultimi driver x entrambe le case....
Non mi sembra poi così brutta come idea no??

gianni1879
15-10-2007, 14:50
ribadisco da sempre che con una serie 1900 di ATI si giocava e si gioca a tutto.. e che R600 è un progetto prematuro oltre che inutile. Con l'aggravante di possedere tutti quei difetti che lo rendono poco appetibile alla stragrande maggioranza delle persone..

ciò nonostante una 2950XT a prezzo onesto mi alletterebbe non poco. :)

che R600 sia un progetto inutile non penso proprio, e proprio il contrario, semmai che abbia anticipato un pò i tempi si (ma non è solo colpa di Ati, i ritardi sono anche da imputare a MS, che con Vista credeva in una maggiore adesione del pubblico, colpa anche agli sviluppatori di gamez che non hanno fatto ancora oggi al momento nemmeno un gioco full dx10).
Beh per chi non ha una x1900 è cmq una scelta molto interessante, considerando anche il prezzo di vendita.

gianni1879
15-10-2007, 14:52
Quoto su tutto tranne che sulla parte in grassetto. Stai tranquillo che negli stabilimenti ATI sapevano benissimo contro cosa andavano a scontrarsi. La prima cosa che una ditta fa non appena la concorrenza rilascia un nuovo prodotto è prenderlo e analizzarlo a fondo...

parlo nella fase dello sviluppo iniziale di G80, quando ancora non si conosceva molto e non era uscito, visto che che R600 non è nato dopo l'uscita di G80 ma ben prima ;)

ninja970
15-10-2007, 15:03
Recensione decisamente interessante da analizzare:

http://www.hartware.de/review_755_1.html

Presenti tutte le vga, non solo la HD2900 PRO del titolo.


;)da questa recensione la PRO ne esce molto bene, direi che per prezzo/qualità è la miglior soluzione possibile (almeno stando ai risultati di hartware)

calabar
15-10-2007, 15:07
però ha ragione hal, recensione invalidata da drivers nvidia vecchiotti.

fustacchione90
15-10-2007, 15:41
ragazzi avete provato ut3?
ad amici con la 2900 dicono che gli va benissimo frame rate altissimi e tutto...
a me va a 30fps max a tutte le ris, e scatta nei momenti in cui la scena è molyto leggera e non dovrebbe scattare....

TecnoWorld8
15-10-2007, 15:42
ragazzi avete provato ut3?
ad amici con la 2900 dicono che gli va benissimo frame rate altissimi e tutto...
a me va a 30fps max a tutte le ris, e scatta nei momenti in cui la scena è molyto leggera e non dovrebbe scattare....

comunque è una beta demo...quindi magari è ancora acerba

fustacchione90
15-10-2007, 15:48
comunque è una beta demo...quindi magari è ancora acerba

si ho capito, ma con una grafica che mi aspettavo molto meglio con il mio pc diciamo high end scatta di piu di crysis!! robe da pazzi!!

gianni1879
15-10-2007, 16:04
si ho capito, ma con una grafica che mi aspettavo molto meglio con il mio pc diciamo high end scatta di piu di crysis!! robe da pazzi!!

hai vista 64bit??
http://www.hwupgrade.it/news/videogiochi/disponibile-il-demo-di-ut-iii-gia-una-patch_22907.html
c'è già una patch

×§ñåkê×
15-10-2007, 16:14
hai vista 64bit??
http://www.hwupgrade.it/news/videogiochi/disponibile-il-demo-di-ut-iii-gia-una-patch_22907.html
c'è già una patch

si ma se leggi è solo per XP 64 bit e Windows Server 2003

gianni1879
15-10-2007, 16:25
si ma se leggi è solo per XP 64 bit e Windows Server 2003

si ho sbagliato io a scrivere volevo dire xp64 ed ho scritto vista :doh: :D

fustacchione90
15-10-2007, 16:46
ho vista ultimate 32bit edition...xo ho appena risolto, e lo dico per tutti i possessori di 2900 (xk è la mia ) non so gli altri...
il v sync della beta di ut3 non ha il triple buffer, cio comporta che se avete la frequenza dello schermo a 75hz e la scheda ne fa 74, andate direttamente da 75 alla meta di 75 e via via cosi....e io che ho pure formattato...:doh: bè almeno qualche fps in piu in crysis l ho guadagnato....

DVD2005
15-10-2007, 16:52
ho vista ultimate 32bit edition...xo ho appena risolto, e lo dico per tutti i possessori di 2900 (xk è la mia ) non so gli altri...
il v sync della beta di ut3 non ha il triple buffer, cio comporta che se avete la frequenza dello schermo a 75hz e la scheda ne fa 74, andate direttamente da 75 alla meta di 75 e via via cosi....e io che ho pure formattato...:doh: bè almeno qualche fps in piu in crysis l ho guadagnato....

D3DOverrider è già compatibile con Vista?

fustacchione90
15-10-2007, 17:10
n saprei....mai usato...

DVD2005
15-10-2007, 17:34
n saprei....mai usato...

da quando fukka me lo ha indicato non ne faccio più a meno :D se giochi con il vsync attivo ti evita il fenomeno del "segamento" degli fps e giochi con i frame reali che la tua vga produce.

belin
15-10-2007, 19:06
pensi sia attendibile...?

...si, leggendo in giro, mi sembra un sito affidabile. Come già detto, secondo me, una recensione è affidabile se svolta correttamente, non se ha gli utlimi driver disponibili. In questa ci sono i 158 per NV e i 7.9 per ATi. In teoria tutte e due sono "penalizzate".
XP è il sistema operativo migliore per giocare in questo momento.
Comunque mancano i test DX10.


...ciao!

HackaB321
15-10-2007, 19:35
...si, leggendo in giro, mi sembra un sito affidabile. Come già detto, secondo me, una recensione è affidabile se svolta correttamente, non se ha gli utlimi driver disponibili. In questa ci sono i 158 per NV e i 7.9 per ATi. In teoria tutte e due sono "penalizzate".
XP è il sistema operativo migliore per giocare in questo momento.
Comunque mancano i test DX10.


...ciao!

Test dx10. Ah intendi quelle diapositive al videoproiettore di quei giochi che in dx9 vanno a 100fps?
Menomale mancano :)

GabrySP
15-10-2007, 19:36
D3DOverrider è già compatibile con Vista?

Si

Iantikas
15-10-2007, 19:37
Si giudica quel che si vede: non mi pare che i "giochi" :asd: dx10 usciti fino ad oggi abbiano una grafica così differente dai giochi dx9 usciti fino a ieri...

Le cose più belle graficamente ultimamente le ho viste su console nel 2005 (PGR3) e 2006 (Gears of War) da lì non mi pare che ci siamo smossi più di tanto su tutti i fronti (pc e console).

Ora sarà il momento con Crysis di dare una nuova svolta ma ancora di DX9, in maniera preponderante, si parlerà. ;)

son daccordo con te...ma infatti la risp l'avevo già data da solo :D ...il problema xò è: quando usciranno i titoli ke potranno sfruttare a fondo le caratteristike d R600 in modo da farla brillare nei confronti d G80?...imho troppo tardi x far si kè un eventuale miglioramento d R600 risulti significativo...

...naturalmente nn ho la sfera d cristallo e questa rimane solo la mia opinione condivisibile o meno e giusta o sbagliata ke sia...

...con questo cmq nn vorrei ke le mie parole fossero travisate o mal interpretate...nn sto dicendo ke R600 è un flop o uno skifo d skeda (se x es. tornassi indietro e la mia scelta fosse limitata a gts e xt riprenderei la xt)...sto dicendo ke (come avevo già pronosticato al momento dell'aquisto) nn si è rivelata una skeda adatta alle mie esigenze nel "lungo periodo" (esigenze ke invece sarebbero state soddisfatte da una GTX/Ultra)...

...ciao

Iantikas
15-10-2007, 19:55
test HL2:EP2

http://enthusiast.hardocp.com/article.html?art=MTQwNCwxLCxoZW50aHVzaWFzdA==

test CoD4

http://www.firingsquad.com/hardware/call_of_duty_4_demo_performance/


...ciao

-Feanor-
15-10-2007, 20:00
test HL2:EP2

http://enthusiast.hardocp.com/article.html?art=MTQwNCwxLCxoZW50aHVzaWFzdA==

...ciao

molto interessante questa...
potresti magari spiegarmi il significato di quel filtro che se attivo mostra una quasi parita tra gtx e 2900xt...???
non lo conosco...:fagiano:

senza la situazione cambia considerevolmente...

belin
15-10-2007, 20:15
test HL2:EP2

http://enthusiast.hardocp.com/article.html?art=MTQwNCwxLCxoZW50aHVzaWFzdA==

molto interessante questa...
potresti magari spiegarmi il significato di quel filtro che se attivo mostra una quasi parita tra gtx e 2900xt...???

Test molto molto interessante! Data la preparazione tecnica di HardOCP (sito storico) mi sembra abbastanza evidentemente che le voci di prestazioni gramme di HD2900XT con HL2:EP2 fossero un pò infondate.
HD2900XT superiore a 8800 GTS640 e testa a testa con GTX quando si abilita AA 4X Quality Adaptive.
Il Quality Adaptive Supersampling è un modalità di AA che premia la qualità d'immagine rispetto al tradizionale AA. Con HL2:EP2 si può utilizzare questa impostazione perchè il Source Engine è un motore molto buono e scalabile. Non so dirti tecnicamente come mai R600 si trovi meglio con questa impostazione, ma è così e non c'è nulla di negativo.

:)

M4R1|<
15-10-2007, 20:17
molto interessante questa...
potresti magari spiegarmi il significato di quel filtro che se attivo mostra una quasi parita tra gtx e 2900xt...???
non lo conosco...:fagiano:

senza la situazione cambia considerevolmente...

quale? dici quello del primo grafico? cioè: 4X Quality ADAA and 4X TR SSAA?

sono AA: l'SS è SuperSampling, l'altro nn lo conosco. cmq strano che la gtx perda così tanto, e che la 2900 così poco

M4R1|<
15-10-2007, 20:19
Test molto molto interessante! Data la preparazione tecnica di HardOCP (sito storico) mi sembra abbastanza evidentemente che le voci di prestazioni gramme di HD2900XT con HL2:EP2 fossero un pò infondate.
HD2900XT superiore a 8800 GTS640 e testa a testa con GTX quando si abilita AA 4X Quality Adaptive.
Il Quality Adaptive Supersampling è un modalità di AA che premia la qualità d'immagine rispetto al tradizionale AA. Con HL2:EP2 si può utilizzare questa impostazione perchè il Source Engine è un motore molto buono e scalabile. Non so dirti tecnicamente come mai R600 si trovi meglio con questa impostazione, ma è così e non c'è nulla di negativo.

:)

forse perchè viene fatto solo con gli shader? e quindi G80 nn è così "potente" da questo punto di vista? (detto una caxxata mi sa:fagiano: )

edit: io nn sono un super esperto ne ho un occhio allenato, ma in "Image Quality Comparisons" tra G80 e R600 a livello di qualità nn mi sembra ci siano differenze, sbaglio?

Iantikas
15-10-2007, 20:40
Test molto molto interessante! Data la preparazione tecnica di HardOCP (sito storico) mi sembra abbastanza evidentemente che le voci di prestazioni gramme di HD2900XT con HL2:EP2 fossero un pò infondate.
HD2900XT superiore a 8800 GTS640 e testa a testa con GTX quando si abilita AA 4X Quality Adaptive.
Il Quality Adaptive Supersampling è un modalità di AA che premia la qualità d'immagine rispetto al tradizionale AA. Con HL2:EP2 si può utilizzare questa impostazione perchè il Source Engine è un motore molto buono e scalabile. Non so dirti tecnicamente come mai R600 si trovi meglio con questa impostazione, ma è così e non c'è nulla di negativo.

:)


leggiamole le rece e ragioniamo un pò prima d scrivere (xkè magari si fa disinformazione...in questo caso penso involontariamente)..

...questa rece nn va in contrapposizione con le altre prima linkate...anzi ne conferma i result aggiungendo in + uno scenario...quello con AA x texture trasparenti abilitato in modalità supersampling x entrambe le aziende...

...caso quest'lutimo dove la XT passa in vantaggio rispetto alla diretta concorrente GTS arrivando ad eguagliare la GTX (ma SENZA AA x texture trasparenti e con il solo AA d tipo box la situazione, come mostrato ssia da questa ke dalle altre rece, si capovolge con la XT sotto alla GTS e molto sotto la GTX)...


...inoltre tale rece fa notare una cosa...ke al momento esiste una grande differenza tra ati/nvidia in IQ x quanto riguarda la luce della torcia e le ombre ke ne derivano con nvidia a spuntarla x quello ke forse x ati è solo un problema ke rikiederà una patch o un fix dei driver...


...la seconda rece su CoD4 mostra (come si era potuto già vedere dai test ke avevo fatto io in questi giorni in netto contrasto con le parole d altri utenti) risultati molto deludenti x la HD2900XT ke si ritorva distanziata d netto dalla GTS sia con ke senza AA e produce risultati in linea con quelli di una x1950xtx...


(ki ha fatto la rece propoende x un problema driver...io inizio da una parte a nn avere una ferma convinzione in tal senso dato ke nn sarebbe l'unico caso dove succede...dall'altra ad essere stufo d avere problemi d'ottimizzazione, o ancora peggio d IQ, in ogni titoli nuovo ke esce e dover sempre aspettare un fix)...


..."voi" invece se preferite continuate a gioire x niente...magari questa potevo rispiarmiarmela ma è solo un modo x spronare ad essere un pò + obiettivo e imparziali una volta ogni tanto...

...ciao

p.s.: l'adaptive AA (o l'analogo trasparency AA come lo kiama nvidia) è l'AA x le texture trasparenti...lo si può definire come un AA ke va ad aggiungersi al canonico AA in multisampling agendo su quelle texture (denominate trasparenti e solitamente usate x alberi, vegetazione, griglie, fili etc) ke nn vengono toccate dal "boxed"...si attiva sia x ati ke x nvidia dal pannello dei driver e entrambe le aziende rendono disponibili varie moalità (in quella rece x entrambe viene usata quella dalla qualità migliore)...

belin
15-10-2007, 20:50
...

Alle volte mi chiedo chi me lo faccia fare di venire a rompermi le cervella in questo thread per poi sentirmi etichettare dal primo che passa. Incredibile.

:mad:

Io ho semplicemente detto che HD2900XT è superiore a 8800 GTS640 e testa a testa con GTX quando si abilita AA 4X Quality Adaptive.
Il Quality Adaptive Supersampling è un modalità di AA che premia la qualità d'immagine rispetto al tradizionale AA. Con HL2:EP2 si può utilizzare questa impostazione perchè il Source Engine è un motore molto buono e scalabile. Non so dirti tecnicamente come mai R600 si trovi meglio con questa impostazione, ma è così e non c'è nulla di negativo.

C'è qualcosa di sbagliato in ciò? Non mi sembra.

Se poi vuoi vatti a rileggere tutti i miei post scritti in questi lunghi anni e troverai che non ho mai denigrato alcuna serie di vga, soprattutto G80 che reputo un OTTIMO prodotto.

Chiudo qui con questo thread, mi sono rotto. Ma veramente.

Iantikas
15-10-2007, 21:09
senti se ti trovi in fallo e nn sai come uscirne nn son problemi miei...di certo nn ti ho offeso nè etikettato andandoti anke incontro

ESEMPIO

xkè magari si fa disinformazione...in questo caso penso involontariamente...



poi, se hai detto una "BEEP", nn'è colpa mia...sei andato a riquotare l'altro pezzo del post quando la frase in questione era anke bella in grassetto e quindi mi sa ke la devo mettere + in risalto...

Test molto molto interessante! Data la preparazione tecnica di HardOCP (sito storico) mi sembra abbastanza evidentemente che le voci di prestazioni gramme di HD2900XT con HL2:EP2 fossero un pò infondate.


il ke è falso x i motivi detti nel post precedente...

...inoltre il p.s. con la "mini-spiegazione" riguardante l'adaptive nn era certo x te ma x l'utente ke aveva kiesto lumi in merito (e questo mi sembrava evidente)...

...il 3d nn ha ke da perderci se te ne vai ma sicuramete dopo questa risp nn sarò io a kiederti di rimanere.

Catan
15-10-2007, 21:19
forse perchè viene fatto solo con gli shader? e quindi G80 nn è così "potente" da questo punto di vista? (detto una caxxata mi sa:fagiano: )

edit: io nn sono un super esperto ne ho un occhio allenato, ma in "Image Quality Comparisons" tra G80 e R600 a livello di qualità nn mi sembra ci siano differenze, sbaglio?

ma garda posso dirti la verità a me g80 anche in via shader non sembra cosi scarso, sicuramente in calcolo teorico è minore di r600 ma snomma la 8800gts ha sempre 96 shader clokkati a 1200mhz e la gtx ne ha 1280 clokkati 1350 quindi la potenza pura per eleborare la ha...+ che altro credo che sia insito nell'archidettura superscalre perdere un pò in condizioni di shader pieni mentre l'archidettura vettoriale di r600 per il gran numero si trova meglio.

DVD2005
15-10-2007, 22:31
...

leggo i tuoi interventi da un po' ormai su questa scheda e non ho ancora capito una cosa:

1.la ricompreresti?
2.ti saresti tenuto la tua ?(X1900XTX se non ricordo male)
3.prenderesti una nvidia?

M4R1|<
15-10-2007, 22:35
p.s.: l'adaptive AA (o l'analogo trasparency AA come lo kiama nvidia) è l'AA x le texture trasparenti...lo si può definire come un AA ke va ad aggiungersi al canonico AA in multisampling agendo su quelle texture (denominate trasparenti e solitamente usate x alberi, vegetazione, griglie, fili etc) ke nn vengono toccate dal "boxed"...si attiva sia x ati ke x nvidia dal pannello dei driver e entrambe le aziende rendono disponibili varie moalità (in quella rece x entrambe viene usata quella dalla qualità migliore)...

nn lo conosceve ne l'avevo mai sentito, Grazie :)

edit:

ma garda posso dirti la verità a me g80 anche in via shader non sembra cosi scarso, sicuramente in calcolo teorico è minore di r600 ma snomma la 8800gts ha sempre 96 shader clokkati a 1200mhz e la gtx ne ha 1280 clokkati 1350 quindi la potenza pura per eleborare la ha...+ che altro credo che sia insito nell'archidettura superscalre perdere un pò in condizioni di shader pieni mentre l'archidettura vettoriale di r600 per il gran numero si trova meglio.

indubbiamente sull'ultima affermazione; per la prima infatti anch'io intendevo dire la stessa cosa (ho messo potenza tra virgolette), perchè ovviamente nn si può più fare un confronto puramente tra numeri, ma si devono considerare altri fattori.

A.L.M.
15-10-2007, 22:43
Il Quality Adaptive Supersampling è un modalità di AA che premia la qualità d'immagine rispetto al tradizionale AA. Con HL2:EP2 si può utilizzare questa impostazione perchè il Source Engine è un motore molto buono e scalabile. Non so dirti tecnicamente come mai R600 si trovi meglio con questa impostazione, ma è così e non c'è nulla di negativo.

:)

quale? dici quello del primo grafico? cioè: 4X Quality ADAA and 4X TR SSAA?

sono AA: l'SS è SuperSampling, l'altro nn lo conosco. cmq strano che la gtx perda così tanto, e che la 2900 così poco


p.s.: l'adaptive AA (o l'analogo trasparency AA come lo kiama nvidia) è l'AA x le texture trasparenti...lo si può definire come un AA ke va ad aggiungersi al canonico AA in multisampling agendo su quelle texture (denominate trasparenti e solitamente usate x alberi, vegetazione, griglie, fili etc) ke nn vengono toccate dal "boxed"...si attiva sia x ati ke x nvidia dal pannello dei driver e entrambe le aziende rendono disponibili varie moalità (in quella rece x entrambe viene usata quella dalla qualità migliore)...

Visto che in molti si chiedevano il perchè di quella prestazione con AA così simile tra GTX e XT, credo di poter offrire una spiegazione.
Il problema sta nel fatto che HardOCP, come fa spesso, per rendere le cose più complicate, poi mostra risultati assolutamente non omogenei... :rolleyes:
Le 2 modalità di AA illustrate sono simili nello scopo, ossia rendere correttamente la transparency delle textures con l'AA, ma lo fanno in modo sostanzialmente diverso. ATi usa l'Adaptive AA (che ha a sua volta 2 modalità, "performance" e "quality"), che si basa sul "classico" MSAA (AA in MultiSampling), con ottimi risultati e bilanciamento tra prestazioni e IQ. Le NVidia invece non riescono praticamente a fare transparency AA in multisampling (esiste una modalità Transparent MSAA, corrispondente alla performance di ATi, ma praticamente non ha effetto), dunque per fare quality transparency AA ricorre al supersampling, ossia l'unico e vero antialiasing. Il supersampling a differenza del multisampling, renderizza tutta l'immagine a schermo più grande e poi la rimpicciolisce (es: con il SSAA 4x a 1024x768 la gpu renderizza un'immagine a 4096x3072 e poi la rimpicciolisce a 1024x768, senza fare downsampling, ossia mantenendo tutto il dettaglio di 4096x3072). E' facile capire quanto dispendioso sia questo metodo di fare AA (anche se è quello che offre la qualità migliore in assoluto). Ecco perchè la GTX va come una XT anche con l'AA attivato: si comparano mele con pere, in termini di dispiego di risorse (seppure il risultato visivo sia molto simile, per merito di ATi). :)

nitro89
15-10-2007, 22:59
Quindi fatemi capire,il Adaptive AA ati si avvicina qualititivamente al classico AA ma con minor dispendio di energie?

Se si,dato che nei giochi come si è visto la 2900 soffre parecchio dell'aa,non si potrebbe forzare via driver ciò?


Correggetemi se ho detto una cavolata :)

A.L.M.
15-10-2007, 23:06
Quindi fatemi capire,il Adaptive AA ati si avvicina qualititivamente al classico AA ma con minor dispendio di energie?

Se si,dato che nei giochi come si è visto la 2900 soffre parecchio dell'aa,non si potrebbe forzare via driver ciò?


Correggetemi se ho detto una cavolata :)

No. L'Adaptive AA è un AA comunque più dispendioso di quello "normale", ma dovrebbe esserlo meno della versione di NVidia.

Iantikas
15-10-2007, 23:49
leggo i tuoi interventi da un po' ormai su questa scheda e non ho ancora capito una cosa:

1.la ricompreresti?
2.ti saresti tenuto la tua ?(X1900XTX se non ricordo male)
3.prenderesti una nvidia?

in effetti me lo kiedo ankio :D ...skerzi a parte...


1. si, se la scelta fosse limitata a 8800GTS 640mb e HD2900XT...anke se nn'è + il si convinto ke era un tempo...a erodere tale convinzione tutta una serie d fattori ke solo col passare del tempo son potuti maturare (xkè nessuno ha la sfera d cristallo)...se x es inzialmente i (poki) casi in cui andava come R580 potevano essere attribuiti a driver acerbi, ora dopo 5 mesi e una situazione in quei titoli ancora all'incirca analoga possono essere attribuiti solo a limiti nell'arkitettura...la scarisità d prestazioni (in base al potenziale della skeda) ke presenta nei titoli ke nnn son i titoloni tripla A da milione o + d copie vendute...i problemi dovuti a driver poco stabili ke come me hanno plagiato gran parte degli utenti (su tutti artefatti in 2d, skermate blu dovute al driver "ati2mtag") x ben 5 mesi (e ancora nn ve certezza ke siano stati risolti anke se c son buone probabilità)...il nn poter sfruttare subito buona parte del potenziale della skeda neanke con i "titoloni" ma dover puntualmente attendere un fix o x ottimizzarne le prestazioni o x risolvere problemi d IQ oppure x risolvere entrambi (e questi fix nn sempre arrivano subito)...e poi c'è tutta una seire d situazioni ke poco mi stanno a genio ma ke sarebbe impossibile elencare ad una ad una (facendo un es. ancora si sta aspettando ke x bioshock ati renda possibile l'attivazione dell'AA direttamente da CCC, nvidia permetteva ciò già da quando uscì la demo...un pò come adesso con UT3 dove nvidia rinominando un exe già permette d'abilitare l'AA in tal gioco prima ancora ke esca una demo ufficiale mentre con ati nn'è proprio possibile)...e poi tante piccole cose ke da sole valgon poco ma messe assieme fanno tanto xkè una skeda nn'è soltanto fps, una skeda (come l'intero pc) la vivi ed ha forse + importanza di quei freddi numerini la qualità con cui la vivi...



2. sicuramente l'avrei venduta...il problema è ke l'ho fatto troppo tardi...paradossalmente fu proprio il bel ricordo ke m'ha lasciato questa skeda (ke è stata una delle gpu ke mi è durata d + [16 mesi]) a nn farmela cambiare a inizio 2007 x una GTX e a farmi aspettare R600...col senno d poi avrei dovuto vendere R580 già a gennaio quando iniziò a dare i primi segni d cedimento e prendermi una GTX ke m'avrebbe traghettato fino a inizio 2008 soddisfando le mie esigenze...

ma aspettai R600...mi ritrovai con una skeda ke sapevo nn avrebbe mai raggiunto la GTX ma ke costava anke 150€ in meno, ke m'avrebbe quasi sempre cmq garantito un boost degno d nota rispetto a R580, ke sarebbe stata una spesa esigua una volta messo in conto la vendita d R580 e ke mi avrebbe consentito d giocare ai titoli di mio interesse così come volevo io fino a ottobre/novembre 2007 periodo in cui poi l'avrei cambiata x la nuova gen d skede nvidia...

...peccato ke le roadmap cambiarono e distrussero l'idilliaco piano d'upgrade ke mi ero prefissato...le nuove skede son state posticipate a marzo 2008 e ora mi ritrovo con una skeda ke già sapevo x fine anno avrebbe incominciato a starmi stretta e ke tra l'altro ha rincarato la dose "deliziandomi" durante il suo utilizzo con una serie d problemi legati ai driver (artefatti in 2d, skermate blu, etc) ke mi hanno portato a formattare 5 volte in neanke 5 mesi (ma a onor del vero forse con i 7.10 è tutto risolto da questo punto di vsta ank se è ancora presto x dirlo)...

3. penso d'aver già risposto al punto due...in generale si...oggi nvidia, domani ati, dopodomani kissà...


...ciao

Iantikas
16-10-2007, 00:17
Visto che in molti si chiedevano il perchè di quella prestazione con AA così simile tra GTX e XT, credo di poter offrire una spiegazione.
Il problema sta nel fatto che HardOCP, come fa spesso, per rendere le cose più complicate, poi mostra risultati assolutamente non omogenei... :rolleyes:
Le 2 modalità di AA illustrate sono simili nello scopo, ossia rendere correttamente la transparency delle textures con l'AA, ma lo fanno in modo sostanzialmente diverso. ATi usa l'Adaptive AA (che ha a sua volta 2 modalità, "performance" e "quality"), che si basa sul "classico" MSAA (AA in MultiSampling), con ottimi risultati e bilanciamento tra prestazioni e IQ. Le NVidia invece non riescono praticamente a fare transparency AA in multisampling (esiste una modalità Transparent MSAA, corrispondente alla performance di ATi, ma praticamente non ha effetto), dunque per fare quality transparency AA ricorre al supersampling, ossia l'unico e vero antialiasing. Il supersampling a differenza del multisampling, renderizza tutta l'immagine a schermo più grande e poi la rimpicciolisce (es: con il SSAA 4x a 1024x768 la gpu renderizza un'immagine a 4096x3072 e poi la rimpicciolisce a 1024x768, senza fare downsampling, ossia mantenendo tutto il dettaglio di 4096x3072). E' facile capire quanto dispendioso sia questo metodo di fare AA (anche se è quello che offre la qualità migliore in assoluto). Ecco perchè la GTX va come una XT anche con l'AA attivato: si comparano mele con pere, in termini di dispiego di risorse (seppure il risultato visivo sia molto simile, per merito di ATi). :)


guarda ke stai facendo un bel pò d confusione (almeno x come la so io)...l'AA "normale (multisampling o supersampling ke sia) e l'AA x texture trasparenti (idem con patate) son due AA differenti e separati ke agiscono su texture differenti e separate...l'AA x texture trasparenti nasce proprio dal fatto ke l'AA d tipo box (ossia l'MSAA) nn può agire su quel tipo d texture denominato "trasparente" (texture tipo un ramo, un filo, dell'erba, ke nn hanno un area ben delimitata sulle quali l'MSAA nn può quindi agire)...


...il quality adaptive d ati e il trasparency supersampling d nivdia son entrambi due tipi d AA x texture trasparenti ke funzionano in SS...ma nn'è ke renderizzano l'intera scena (come farebbe un AA "normale" d tipo SS, ke, quicunx a parte nn vien utilizzato + da anni oltre ke x il peso ke ha anke x il blurring ke deriva dall'applicare l'AA su tutta l'immagine e nn solo ai bordi degli oggetti) ma solo l'intera parte d texture trasparenti...proprio in questo caso ati e nvidia utilizzano lo stesso metodo (xvenendo ad un risultato molto simile)...


...la differenza tra ATi e nvidia (almeno fino ai Cat 7.9...agggiungo dopo xkè nn + dai 7.10) sta invece in come applicano la modalità d qualità inferiore...


...ATI (al contrario d come hai detto) in entrambi i casi (ricordo fino ai 7.9) utilizza un AA x texture trasparenti d tipo SS...solo ke in modalità "qualità" utilizza un numero d campioni uguale a quello impostato x l'AA normale...mentre in modalità "perfomance" utilizza la metà d campioni (x es. se si sceglie un 4xAA...se si aggiunge il QA si avrà un AA x texture trasparenti ank'esso a 4x...se si sceglie PA lo si avrà a 2x...ma in entrambi i casi d tipo SS)...

...nvidia invece (come dice il nome stesso usato x definirli) nella sua modalità "performance" denominata "trasparency multisampling" utilizza un AA x texture trasparenti d tipo MS in quella "qualità" invece d tipo SS ma in entrambi i casi con un numero d campioni pari a quello impostato x l'AA "normale"...


...come hai fatto notare anke tu l'AA applicato in modalità SS ha una pesantezza molto elevata e aggravia parekkio il carico d lavoro ke deve svolgere la skeda...proprio x questo a partire dai 7.10 ati ha reso dispoibile dal CCC oltre alla modalità SS la possibilità d'attivare un AA x texture trasparenti in modalità MS...


...ciao


p.s,: cmq basta un pò di logica x capire ke il tuo ragionamento è errato...se l'AA x texture trasparenti fosse un normale AA d tipo SS applicato all'intera immagine nn l'avrebbero kiamato AA x texture trasparenti ma avrebbero continuato a kiamarlo SSAA come hanno sempre fatto...xkè kiamare la stessa cosa con due nomi diversi?

p.p.s: avrebbero comparato mele con pere se avessero usato le modalità perofmance d ati/nvidia ke come detto agiscono in maniera differente (giungendo a risultati molto diversi sia x qualità ke x impatto sulle performance)...ma l'applicazione in modalità qualità è la medesima x entrambe le skede...ad hard-ocp nn son gli ultimi arrivati, anzi (stiam parlando d uno dei siti + famosi e rinoati al mondo)...se dicono ke stanno facendo un'analisi "apples to apples" (peraltro discostandosi dalla metodologia ke utilizzano abitualmente) è xkè lo stanno facendo veramente...

A.L.M.
16-10-2007, 00:26
p.p.s: avrebbero comparato mele con pere se avessero usato le modalità perofmance d ati/nvidia ke come detto agiscono in maniera differente (giungendo a risultati molto diversi sia x qualità ke x impatto sulle performance)...ma l'applicazione in modalità qualità è la medesima x entrambe le skede...ad hard-ocp nn son gli ultimi arrivati, anzi (stiam parlando d uno dei siti + famosi e rinoati al mondo)...se dicono ke stanno facendo un'analisi "apples to apples" (peraltro discostandosi dalla metodologia ke utilizzano abitualmente) è xkè lo stanno facendo veramente...

Le modalità comunque non sono esattamente le stesse, visto che non credo che sia esattamente uguale il modo di fare supersampling sulle texture trasparenti (lo suggerisce anche il fatto che l'impatto sia molto forte sulle NVidia e meno sulle ATi): questo può portare a impatti parecchio diversi sulle prestazioni.
http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page6.asp
Il TR SSAA di G80 sembra qualitativamente superiore secondo alcuni siti, dunque è probabile che la modalità di supersampling usata sia migliore rispetto alla ATi (e più pesante).
HardOCP è tristemente noto per essere pesantemente pro-NVidia e per fare review abbastanza inutili (tipo i grafici in confrontano settaggi diversi, in base alla loro definizione di "playable").
Per il resto, in effetti il TR SSAA non è un full scene SSAA, ma un mix tra SS e MS, come nel caso dell'Adaptive di ATi. ;)

Iantikas
16-10-2007, 08:21
Le modalità comunque non sono esattamente le stesse, visto che non credo che sia esattamente uguale il modo di fare supersampling sulle texture trasparenti (lo suggerisce anche il fatto che l'impatto sia molto forte sulle NVidia e meno sulle ATi): questo può portare a impatti parecchio diversi sulle prestazioni.
http://www.firingsquad.com/hardware/ati_radeon_x1800_xt_xl/page6.asp
Il TR SSAA di G80 sembra qualitativamente superiore secondo alcuni siti, dunque è probabile che la modalità di supersampling usata sia migliore rispetto alla ATi (e più pesante).
HardOCP è tristemente noto per essere pesantemente pro-NVidia e per fare review abbastanza inutili (tipo i grafici in confrontano settaggi diversi, in base alla loro definizione di "playable").
Per il resto, in effetti il TR SSAA non è un full scene SSAA, ma un mix tra SS e MS, come nel caso dell'Adaptive di ATi. ;)


in effetti c'era un sito (d cui una volta nn salvando i preferiti formattando ne persi le traccie) ke si soffermava molto nel testare la qualità dei filtri ke era giunto ank'esso a queste conclusioni x l'aa x texture trasparenti...

...xò le differenze son lievi e dato ke in entrambi i casi in modalità qualità utilizzano un MS x texture normali + un SS x le texture trasparenti nn lo so a cosa sono dovute...

...cmq la metodologia usata da hard-ocp nn la trovo inutile...inizia ad aquisire importanza fondamentale il recensore xò imho se x es. HWup ai normali test ke svolge aggiungesse anke la metodologia d hard-ocp si avrebbe una rece molto + completa...

...ciao

Iantikas
16-10-2007, 08:42
http://www.tweaktown.com/articles/1202/1/page_1_introduction/index.html


comparazione 7.9 vs. 7.10...ciao

DVD2005
16-10-2007, 08:45
in effetti me lo kiedo ankio :D ...skerzi a parte...



...ciao

abbiamo fatto parte di ragionamenti simili, poi ho svoltato per un altra strada. Anche io attendevo R600, però appena uscì c'erano troppe incognite, quindi ho preferito continuare con la X1950XTX che a 1440*900 mi consente di giocare ancora bene. Sicuramente quando cambierò scheda della mia, a differenza tua, non ci farò niente e mi toccherà spendere per intero la cifra della nuova. Spero solo di essere "premiato" dal riuscire a fare l'acquisto giusto.

wiltord
16-10-2007, 08:56
..e poi a dirla tutta nell'ultimo periodo non ho proprio avvertito l'esigenza dell'upgrade: COD4, HL2 EP2 e Timeshift ad esempio volano anche con le 1900..:D

Franx1508
16-10-2007, 09:02
..e poi a dirla tutta nell'ultimo periodo non ho proprio avvertito l'esigenza dell'upgrade: COD4, HL2 EP2 e Timeshift ad esempio volano anche con le 1900..:D

si sono d'accordo ma magari il tuo procio aiuta....:sofico: :ciapet:
(ho una x1900xtx-512mb)

DVD2005
16-10-2007, 09:03
..e poi a dirla tutta nell'ultimo periodo non ho proprio avvertito l'esigenza dell'upgrade: COD4, HL2 EP2 e Timeshift ad esempio volano anche con le 1900..:D

:D :D

mtk
16-10-2007, 09:04
..e poi a dirla tutta nell'ultimo periodo non ho proprio avvertito l'esigenza dell'upgrade: COD4, HL2 EP2 e Timeshift ad esempio volano anche con le 1900..:D

confermo :D

wiltord
16-10-2007, 09:05
si sono d'accordo ma magari il tuo procio aiuta....:sofico: :ciapet:
(ho una x1900xtx-512mb)

sicuramente, infatti al momento ho preferito investire su quello proprio per non farmi trovare impreparato al cambio della vga ;)

:D :D

:D

yossarian
16-10-2007, 09:05
l'impatto prestazionale del tradizionale MS non dà indicazioni attendibili per valutare un SSAA; il primo viene eseguito, solitamente (tranne che in R600), nelle rop's, il secondo no.

A.L.M.
16-10-2007, 09:17
l'impatto prestazionale del tradizionale MS non dà indicazioni attendibili per valutare un SSAA; il primo viene eseguito, solitamente (tranne che in R600), nelle rop's, il secondo no.

Quindi sarebbe meglio evitare test comparativi con il Transparency AA? :stordita:

P.S.: se hai qualche info/spiega su RV670 non esitare a postare... :sofico:
http://www.hwupgrade.it/forum/showthread.php?t=1561203

yossarian
16-10-2007, 09:51
Quindi sarebbe meglio evitare test comparativi con il Transparency AA? :stordita:

P.S.: se hai qualche info/spiega su RV670 non esitare a postare... :sofico:
http://www.hwupgrade.it/forum/showthread.php?t=1561203

non è detto; potrebbe servire a valutare l'impatto di un AA fatto via shader su entrambi i chip

appleroof
16-10-2007, 09:55
non è detto; potrebbe servire a valutare l'impatto di un AA fatto via shader su entrambi i chip

.....e quindi a confermare che R600 in questa modalità si porta al livello/supera la 8800gtx....? :fiufiu:

GabrySP
16-10-2007, 09:55
non è detto; potrebbe servire a valutare l'impatto di un AA fatto via shader su entrambi i chip

Per quello basta usare il bench di CoJ in DX10 che fa AA via shader anche su G80. (chissa perchè ? :D )

halduemilauno
16-10-2007, 10:40
...si, leggendo in giro, mi sembra un sito affidabile. Come già detto, secondo me, una recensione è affidabile se svolta correttamente, non se ha gli utlimi driver disponibili. In questa ci sono i 158 per NV e i 7.9 per ATi. In teoria tutte e due sono "penalizzate".
XP è il sistema operativo migliore per giocare in questo momento.
Comunque mancano i test DX10.


...ciao!

sullo stesso piano mi metti la differenza tra i 7.9 e i 7.10 come tra i 158 e i 163.
:boh:

http://www.tweaktown.com/articles/1202/1/page_1_introduction/index.html

yossarian
16-10-2007, 11:32
.....e quindi a confermare che R600 in questa modalità si porta al livello/supera la 8800gtx....? :fiufiu:

bisognerà vedere come andranno una volta ottimizzate tutte e due le architetture. Sulla carta, R600 è molto più veloce nell'esecuzione dei calcoli matematici; la difficoltà sta nel riuscire ad ottenere il massimo parallelismo, ovvero nel riuscire a trovare il maggior numero di istruzioni indipendenti all'interno di un medesimo shader. La differenza sostanziale tra le due architetture sta nel fatto che G80 ha uno shaer core di tipo SIMD, mentre R600 ha un'architettura SIMD a livello macro (nei 4 blocchi da 16 alu) e di tipo MIMD a livello micro (ogni alu può eseguire 5 istruzioni differenti per ciclo (+ 1 di branching). Ciò comporta che se i 64 thread gestiti da R600 sono di una singola istruzione, i 4/5 dello shader core resta in idle; se, invece, ogni thread è composto da più istruzioni indipendenti, allora possono arrivare a lavorare tutti e 320 gli sp. Le alu di G80, invece, lavorano tutte su thread basati su singola istruzione (e ha bisogno di frequenze elevate per poter fare il maggior numero di cicli possibili). In altre parole, G80 ha 128 alu che gestiscono ciascuna una istruzione per ciclo, R600 ha 64 alu capaci di gestire fino a 5 istruzioni per ciclo (senza tener conto di operazioni di branching, texturing o altro); per ottenere la resa ottimale, però, il compilatore deve svolgere un'operazione di riordino degli shader, in modo da accorpare più istruzioni in una singola macro istruzione da inviare a ciascuna alu.

appleroof
16-10-2007, 11:40
bisognerà vedere come andranno una volta ottimizzate tutte e due le architetture. Sulla carta, R600 è molto più veloce nell'esecuzione dei calcoli matematici; la difficoltà sta nel riuscire ad ottenere il massimo parallelismo, ovvero nel riuscire a trovare il maggior numero di istruzioni indipendenti all'interno di un medesimo shader. La differenza sostanziale tra le due architetture sta nel fatto che G80 ha uno shaer core di tipo SIMD, mentre R600 ha un'architettura SIMD a livello macro (nei 4 blocchi da 16 alu) e di tipo MIMD a livello micro (ogni alu può eseguire 5 istruzioni differenti per ciclo (+ 1 di branching). Ciò comporta che se i 64 thread gestiti da R600 sono di una singola istruzione, i 4/5 dello shader core resta in idle; se, invece, ogni thread è composto da più istruzioni indipendenti, allora possono arrivare a lavorare tutti e 320 gli sp. Le alu di G80, invece, lavorano tutte su thread basati su singola istruzione. In altre parole, G80 ha 128 alu che gestiscono ciascuna una istruzione per ciclo, R600 ha 64 alu capaci di gestire fino a 5 istruzioni per ciclo (senza tener conto di operazioni di branching, texturing o altro); per ottenere la resa ottimale, però, il compilatore deve svolgere un'operazione di riordino degli shader, in modo da accorpare più istruzioni in una singola macro istruzione da inviare a ciascuna alu.

grazie eccellente spiegazione, anche chiara direi. Queste cose più o meno le sapevo (ad un livello enormemente meno tecnico ovviamente, ma in sostanza le sapevo), ma ti chiederei: quando parli di ottimizzazione (parte in neretto) ti riferisci ai soli driver o anche al modo in cui saranno programmati i giochi dx10 prossimi venturi?

che tu sappia poi :D le dx10.1 necessitano di hw dedicato o no?

zorco
16-10-2007, 12:23
che tu sappia poi :D le dx10.1 necessitano di hw dedicato o no?
speriamo di nò:tie:

yossarian
16-10-2007, 12:30
grazie eccellente spiegazione, anche chiara direi. Queste cose più o meno le sapevo (ad un livello enormemente meno tecnico ovviamente, ma in sostanza le sapevo), ma ti chiederei: quando parli di ottimizzazione (parte in neretto) ti riferisci ai soli driver o anche al modo in cui saranno programmati i giochi dx10 prossimi venturi?



una cosa non può prescindere dall'altra: maggiore è la distanza tra il codice in ingresso e la condizione teorica ideale per un chip, più è il lavoro che compilatori e arbiter devono svolgere (maggiori sono le ottimizzazioni da fare via driver).



che tu sappia poi :D le dx10.1 necessitano di hw dedicato o no?

si e no; ad esempio, le dx10.1 richiedono l'impiego dei filtri a fp32 (che nelle dx10 è opzionale). Sia R600 che G80 possono applicare filtraggio bilineare e trilineare a fp32 (oltre che a fp16). Il problema sarà quello di valutare l'impatto sulle prestazioni. Se poi, tra i filtri si include anche l'antialiasing (che di fatto è un filtro), allora va detto che il circuito di resolve del msaa delle rop's non lavora a fp32 in nessun chip.

Iantikas
16-10-2007, 12:38
grazie eccellente spiegazione, anche chiara direi. Queste cose più o meno le sapevo (ad un livello enormemente meno tecnico ovviamente, ma in sostanza le sapevo), ma ti chiederei: quando parli di ottimizzazione (parte in neretto) ti riferisci ai soli driver o anche al modo in cui saranno programmati i giochi dx10 prossimi venturi?

che tu sappia poi :D le dx10.1 necessitano di hw dedicato o no?

penso ad entrambi...xkè il compilatore dev'essere ben ottimizzato in modo da accorpare in un'unica grande istruzione il + possibile d istruzioni piccoline...ma se ciò nn''è posssibie a monte (x come è stato programmato il gioco) il compilatore nn può fare i miracoli...


...ciao

nico88desmo
16-10-2007, 13:04
si e no; ad esempio, le dx10.1 richiedono l'impiego dei filtri a fp32 (che nelle dx10 è opzionale). Sia R600 che G80 possono applicare filtraggio bilineare e trilineare a fp32 (oltre che a fp16). Il problema sarà quello di valutare l'impatto sulle prestazioni. Se poi, tra i filtri si include anche l'antialiasing (che di fatto è un filtro), allora va detto che il circuito di resolve del msaa delle rop's non lavora a fp32 in nessun chip.

Questo significa che anche nelle dx10.1 si farà l'AA via Rops?

Foglia Morta
16-10-2007, 13:09
Questo significa che anche nelle dx10.1 si farà l'AA via Rops?

mi pare abbia scritto esattamente l'opposto, il resolve si farà negli shader

appleroof
16-10-2007, 13:34
speriamo di nò:tie:

come non essere d'accordo :asd:

una cosa non può prescindere dall'altra: maggiore è la distanza tra il codice in ingresso e la condizione teorica ideale per un chip, più è il lavoro che compilatori e arbiter devono svolgere (maggiori sono le ottimizzazioni da fare via driver).

perfetto grazie

si e no; ad esempio, le dx10.1 richiedono l'impiego dei filtri a fp32 (che nelle dx10 è opzionale). Sia R600 che G80 possono applicare filtraggio bilineare e trilineare a fp32 (oltre che a fp16). Il problema sarà quello di valutare l'impatto sulle prestazioni. Se poi, tra i filtri si include anche l'antialiasing (che di fatto è un filtro), allora va detto che il circuito di resolve del msaa delle rop's non lavora a fp32 in nessun chip.

mmmm...direi che più chiaro di così si muore

p.s.: dovresti frequentare il forum più spesso :D

penso ad entrambi...xkè il compilatore dev'essere ben ottimizzato in modo da accorpare in un'unica grande istruzione il + possibile d istruzioni piccoline...ma se ciò nn''è posssibie a monte (x come è stato programmato il gioco) il compilatore nn può fare i miracoli...


...ciao

ma tu non mi avevi messo in ignore? :ciapet: :ciapet:

Athlon 64 3000+
16-10-2007, 13:40
mi pare abbia scritto esattamente l'opposto, il resolve si farà negli shader

motivo perchè R600 non ha la circuiteria di resolve nelle rop's e fa quel tipo di calcolo negli shader.

M4R1|<
16-10-2007, 14:00
non è detto; potrebbe servire a valutare l'impatto di un AA fatto via shader su entrambi i chip

ciao Yoss

finalmente ti fai rivedere :)

M4R1|<
16-10-2007, 14:09
motivo perchè R600 non ha la circuiteria di resolve nelle rop's e fa quel tipo di calcolo negli shader.

speriamo solo che una volta ottimizzato a dovere e in presenza di motori full dx10 riesca a dare degne prestazioni, altrimenti è cmq inutile, o per lo meno, nn garantirà buone prestazioni. perchè cmq a me nn mi interessa che il suo potenziale venga utilizzato fra 12 mesi, quando nn ce la farà più, a me interessa che si comporti bene adesso (che cmq lo fa nn fraintendetemi); ed è proprio questo che nn capisco nella logica di ati.
spiegazione:D

Iantikas
16-10-2007, 15:48
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao

TecnoWorld8
16-10-2007, 16:01
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao

secondo me hai fatto bene, dato che la 2900xt non ti soddisfaceva più; la ultra sono certo che a quel prezzo sarà un buon acquisto anche nel caso a novembre uscisse qualcosa di più potente. mal che vada la rivendi e ci perdi magari 50€, ma da ora ad allora vai alla grande con tutto. magari facci una comparativa oggettiva e seria tra le due schede, se ti va!

zorco
16-10-2007, 16:09
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao
ero sicuro che avresti fatto il cambio visto che da un pò di post che si capiva che la 2900xt non ti soddisfaceva più..

auguri:)

Catan
16-10-2007, 16:29
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao

hai fatto benissimo invece, non tanto per le sprestazioni ma se il prezzo era vantaggioso e cmq la volgia di cambiare vga e provare qualcosa di nuovo è sempre presente;) ;) ;)

cosi ora potrai venire anche tu a flammare qui dicendo la hd2900xt è una ciofeca:D :D :D

Chief
16-10-2007, 16:44
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao

Ottimo il cambio specialmete se fatto per pochi soldi:..auguri (è sempre bello testare una nuova scheda video a prescindere dal marchio ;) )

hai fatto benissimo invece, non tanto per le sprestazioni ma se il prezzo era vantaggioso e cmq la volgia di cambiare vga e provare qualcosa di nuovo è sempre presente;) ;) ;)

cosi ora potrai venire anche tu a flammare qui dicendo la hd2900xt è una ciofeca:D :D :D

Non penso che Iantikas venga a dire che la 2900 sia una ciofeca,ma penso che dica obiettivamente la differenza che intercorre fra le due vga nulla di più, visto che è stato a mio parere sempre imparziale e non è stato mai influenzato dal marchio :)

-Feanor-
16-10-2007, 17:06
in bocca al lupo Iantikas..:)
spero che posterai ancora qui..
magari con dei bei confronti oggettivi com sai fare quando ti impegni...:D

Iantikas
16-10-2007, 17:11
grazie a tutti x gli auguri :) ...


...@ Tecnoworld8: in effetti sto inziando a installare tutti i gioki ke ho a disposizione e sto inziando a preparare bench e screen a nn finire (x comodità solo con la skeda in oc ma se ho il tempo vedrò d fare anke a def)...+ ke x altro lo stavo facendo x mia stessa curiosità ma nn mankerò d rendervi partecipi ;) ...

...ciao

DVD2005
16-10-2007, 17:24
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao

sono stato un pò profeta con le mie 3 domande di questa mattina :D si vedeva lontano un chilometro che eri insoddisfatto. Buon divertimento con la nuova arrivata e facci sapere ;)

wiltord
16-10-2007, 17:26
sono stato un pò profeta con le mie 3 domande di questa mattina :D si vedeva lontano un chilometro che eri insoddisfatto. Buon divertimento con la nuova arrivata e facci sapere ;)

vero..:D

Catan
16-10-2007, 17:30
Non penso che Iantikas venga a dire che la 2900 sia una ciofeca,ma penso che dica obiettivamente la differenza che intercorre fra le due vga nulla di più, visto che è stato a mio parere sempre imparziale e non è stato mai influenzato dal marchio :)


din don era una battuta:D :D :D

M4R1|<
16-10-2007, 18:05
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ... (LOL)

...ciao

{vedo che i dindini nn ti mancano :D :D , betato te!}

spero proprio che nn te ne pente (più che altro per la spesa), cmq speriamo che nn diventerai undo di quelli da mettere nella lista nera :asd:

ISOLA
16-10-2007, 18:31
grazie a tutti x gli auguri :) ...


...@ Tecnoworld8: in effetti sto inziando a installare tutti i gioki ke ho a disposizione e sto inziando a preparare bench e screen a nn finire (x comodità solo con la skeda in oc ma se ho il tempo vedrò d fare anke a def)...+ ke x altro lo stavo facendo x mia stessa curiosità ma nn mankerò d rendervi partecipi ;) ...

...ciao

non penso te ne pentirai:D

TecnoWorld8
16-10-2007, 18:39
spero proprio che nn te ne pente (più che altro per la spesa), cmq speriamo che nn diventerai undo di quelli da mettere nella lista nera :asd:

dipende sempre da cosa si cerca; a quanto ho capito, lui cerca il massimo dettaglio con filtri, alla risoluzione di 1680x1050. a quei settaggi, è chiaro che la xt ce la fa ancora con giochi tipo HL2 episode 2, ma già con altri (soprattutto in dx10) potrebbe essere in difficoltà. se invece la ultra lo consente, non penso se ne pentirà, dato il prezzo pagato.

è chiaro che se poi a novembre esce un nuovo mostro nVidia, tutto va ridefinito, ma nessuno ha la sfera di cristallo. pagare la Ultra 450€ ora sarebbe come pagare una XT 250€, quindi uno non se ne pentirebbe comunque credo.

M4R1|<
16-10-2007, 18:54
dipende sempre da cosa si cerca; a quanto ho capito, lui cerca il massimo dettaglio con filtri, alla risoluzione di 1680x1050. a quei settaggi, è chiaro che la xt ce la fa ancora con giochi tipo HL2 episode 2, ma già con altri (soprattutto in dx10) potrebbe essere in difficoltà. se invece la ultra lo consente, non penso se ne pentirà, dato il prezzo pagato.

è chiaro che se poi a novembre esce un nuovo mostro nVidia, tutto va ridefinito, ma nessuno ha la sfera di cristallo. pagare la Ultra 450€ ora sarebbe come pagare una XT 250€, quindi uno non se ne pentirebbe comunque credo.

si concordo, però quello su cui sono un po' scettico è il fatto che cmq dalla XT a 870 alla ultra nn credo ci sia un abisso così marcato. e poi cmq sapendo che ci sono da qui a poco numerose revisioni (ed è una certezza perchè G80 va per i 12 mesi e R600 per i 6, quindi di sicuro ci sarà qualcosa) è un po' un azzardo. certo che è anche vero che però attualmente la ultra è la top, ti consente di mettere filtri e quant altro senza grossi problemi alla sua ress (e anche più alte) quindi sicuramente se nn cambia tra 3 mesi la 8800 gli tira di più di R600.

spero che nn si ritrovi una delusione, anche perchè mi spiacerebbe visto che 150€ sono sempre 300mila £ e cmq nessuno qui ha la macchinetta in cantina per i soldi (a parte ovviamente il sottoscritto :D ma nn ditelo a nessuno :D:D).

TecnoWorld8
16-10-2007, 19:15
si concordo, però quello su cui sono un po' scettico è il fatto che cmq dalla XT a 870 alla ultra nn credo ci sia un abisso così marcato.

questo ce lo dirà lui stesso ;) sarà molto interessante vedere i suoi risultati!




nessuno qui ha la macchinetta in cantina per i soldi (a parte ovviamente il sottoscritto :D ma nn ditelo a nessuno :D:D).

:eek: :eek: :eek:

Iantikas
16-10-2007, 19:49
questo ce lo dirà lui stesso ;) sarà molto interessante vedere i suoi risultati!





:eek: :eek: :eek:


infatti son proprio curioso d vedere quali saranno le differenze...anke se mi sto rendendo conto ke nn so come fare x testare tutti gli ultimi titoli in maniera precisa dato ke x es. LP a parte DIRT, Stalker, Bioshock, MoH:A, HL2:EP2, TF2, R6V, TDU (+ demo Cod4, Jericho, UT3) ke sono i titoli su cui ho deciso d sofferarmi e ke sto testanto (testerò) nn hanno un bench integrato...


...ho già preparato i bench "indiscutibili" ke son LP e 3dmark06...e x i gioki senza bench integrato sto facendo salvataggi in punti precisi (demo a parte dove ciò nn'è possibile), 4 test in scenaridiversi x gioco e salvero i salvataggi x riprenderli nel punto esatto una volta re-instllati i gioki dopo aver formattato e messo la Ultra...

...ho inziato con il demo d Cod4 d cui ho giò i risultati pronti x la XT e mi sto già rendendo conto ke con la stessa skeda, nello stesso identico scenario anke mettendoci tutta la buona volontà c stanno anke 5fps d differenza tra una ripetizione e l'altra del test...credo ke dovrei rifare + volte (almeno 4/5) lo stesso test e fare poi una media ma così la mole d lavoro aumenterebbe esponenzialmente e son indeciso se testare poki gioki ma far test + precisi o testarne molti ma farli un pò meno precisi...cmq devo vedere in altri gioki xkè forse questo è un caso isolato a cod4 dove l'azione è molto frenetica e x forza d cose molto differente da partita a partita

...intanto giusto x vedere come si comporta la XT ecco tre screen del bench integrato in LP...son tutti a 1680x1050 con tutti i dettagli al max ma il primo e senza AA/AF, il secondo senza AA ma con 16xAF e il terzo con 4xAA e 16xAF...

... http://img80.imageshack.us/img80/705/lostplanetdx91680x1050nmw0.th.jpg (http://img80.imageshack.us/my.php?image=lostplanetdx91680x1050nmw0.jpg) ...

... http://img339.imageshack.us/img339/6896/lostplanetdx91680x1050ndn7.th.jpg (http://img339.imageshack.us/my.php?image=lostplanetdx91680x1050ndn7.jpg) ...

... http://img80.imageshack.us/img80/2472/lostplanetdx91680x10504nc4.th.jpg (http://img80.imageshack.us/my.php?image=lostplanetdx91680x10504nc4.jpg) ...

...ciao

M4R1|<
16-10-2007, 20:01
questo ce lo dirà lui stesso ;) sarà molto interessante vedere i suoi risultati!





:eek: :eek: :eek:

:Perfido: :sofico:

infatti son proprio curioso d vedere quali saranno le differenze...anke se mi sto rendendo conto ke nn so come fare x testare tutti gli ultimi titoli in maniera precisa dato ke x es. LP a parte DIRT, Stalker, Bioshock, MoH:A, HL2:EP2, TF2, R6V, TDU (+ demo Cod4, Jericho, UT3) ke sono i titoli su cui ho deciso d sofferarmi e ke sto testanto (testerò) nn hanno un bench integrato...


...ho già preparato i bench "indiscutibili" ke son LP e 3dmark06...e x i gioki senza bench integrato sto facendo salvataggi in punti precisi (demo a parte dove ciò nn'è possibile), 4 test in scenaridiversi x gioco e salvero i salvataggi x riprenderli nel punto esatto una volta re-instllati i gioki dopo aver formattato e messo la Ultra...

...ho inziato con il demo d Cod4 d cui ho giò i risultati pronti x la XT e mi sto già rendendo conto ke con la stessa skeda, nello stesso identico scenario anke mettendoci tutta la buona volontà c stanno anke 5fps d differenza tra una ripetizione e l'altra del test...credo ke dovrei rifare + volte (almeno 4/5) lo stesso test e fare poi una media ma così la mole d lavoro aumenterebbe esponenzialmente e son indeciso se testare poki gioki ma far test + precisi o testarne molti ma farli un pò meno precisi...cmq devo vedere in altri gioki xkè forse questo è un caso isolato a cod4 dove l'azione è molto frenetica e x forza d cose molto differente da partita a partita

...intanto giusto x vedere come si comporta la XT ecco tre screen del bench integrato in LP...son tutti a 1680x1050 con tutti i dettagli al max ma il primo e senza AA/AF, il secondo senza AA ma con 16xAF e il terzo con 4xAA e 16xAF...

http://img80.imageshack.us/img80/705/lostplanetdx91680x1050nmw0.th.jpg (http://img80.imageshack.us/my.php?image=lostplanetdx91680x1050nmw0.jpg)

http://img339.imageshack.us/img339/6896/lostplanetdx91680x1050ndn7.th.jpg (http://img339.imageshack.us/my.php?image=lostplanetdx91680x1050ndn7.jpg)

http://img80.imageshack.us/img80/2472/lostplanetdx91680x10504nc4.th.jpg (http://img80.imageshack.us/my.php?image=lostplanetdx91680x10504nc4.jpg)

...ciao

be dai vedo che sei contento e indaffrato, buon per te ;) (AUGURI :))

Marko#88
16-10-2007, 20:59
raga alla fine l'ho fatto...ho preso la 8800 Ultra...so già ke è stata una grandissima caxxata (anke se il prezzo era "ultra vantaggioso") quindi magari evitate d rincarare la dose :D ...

...so già ke nel medesimo istante in cui io ho deciso d prenderla alla nvidia hanno scelto d anticipare l'uscita delle nuove top d gamma a novembre :oink: :D ...ma alla fine va bene anke così...al max se dovessi ritenerne opportuno l'aquisto tiro un paio d bestemmie rivendo la ultra e nn c penso + :O ...

...ciao

secondo me hai fatto bene...:D
e vedrai che ne sarai soddisfatto pienamente, la ultra è migliore della 2900xt praticamente sotto tutti gli aspetti (parlo più che altro di prestaizioni e rumorosità)...:)

7stars
16-10-2007, 21:25
però torniamo punto e accapo qui.siamo contenti per te ma credo sia il caso di testare i giochi senza spendere troppe parole e poi postare i risultati perchè poi non sono neanche tanto necessari visto ke già è scontato che la 8800ultra sia + potente della 2900xt quindi credo sia una cosa + personale...e questo è il thread della 2900...ma possibile che non interviene nessuno?? ma scusate non si potrebbe aprire un thread tecnico di confronto...?? a me,e non dovrebbe essere solo "a me", interessano i passi in avanti che si stanno facendo con l'architettura della ati,almeno in questa discussione...e però ogni pagina...insomma,ora addirittura si parla pure della ultra...

Wisky85
16-10-2007, 21:27
Ho appena acquistato un nuovo PC Così Configurato:

Scheda Madre 775 Gigabyte GA-P35C-DS3R
Processore Intel Core 2 Quad Q6600 Step G0
Scheda Video PowerColor Ati Radeon HD2900XT 1Gb Ram
2 x 1 GB Ram Pc 800Mhz Kit Geil con Dissipatore in alluminio
Hard Disk Maxtor 320 Gb Sata 2
Alimentatore Gold Rose Power Fan 600W
Masterizzatore DVD DL Sony
Lettore DVD LG
Lettore Multicard all in one 3,5"
Lettore Floppy Samsung
Scheda PCI FIREWIRE
Scheda Aggiuntiva Ethernet 10/100
Windows Vista Ultimate 64 Bit

Credo di averci messo tutto

Quello che vi chiedo, è:
Conoscete un metodo per configurare al meglio la mia scheda video? Magari qualche configurazione,

premetto che avevo installato i driver dal cd fornito con essa su xp precedentemente avendo un punteggio di 11400 con 3dmark.

Poi quando ho messo vista ho installato i nuovi driver appena rilasciati da ati. per poi notare che con 3dmark 2006 ho ottenuto in punteggio di 10880 e in alcuni test, come quello della neve, c'erano come delle esplosioni improvvise di luce .

Secondo me è colpa della mia totale inesperienza nel campo per questo chiedo aiuto a voi, potreste gentilmente consigliarmi parametri da settare per ottenere il massimo dalla mia scheda video? Grazie 1000 in anticipo un grazie grande così CIAO!!!

-Feanor-
16-10-2007, 21:30
Ho appena acquistato un nuovo PC Così Configurato:

Scheda Madre 775 Gigabyte GA-P35C-DS3R
Processore Intel Core 2 Quad Q6600 Step G0
Scheda Video PowerColor Ati Radeon HD2900XT 1Gb Ram
2 x 1 GB Ram Pc 800Mhz Kit Geil con Dissipatore in alluminio
Hard Disk Maxtor 320 Gb Sata 2
Alimentatore Gold Rose Power Fan 600W
Masterizzatore DVD DL Sony
Lettore DVD LG
Lettore Multicard all in one 3,5"
Lettore Floppy Samsung
Scheda PCI FIREWIRE
Scheda Aggiuntiva Ethernet 10/100
Windows Vista Ultimate 64 Bit

Credo di averci messo tutto

Quello che vi chiedo, è:
Conoscete un metodo per configurare al meglio la mia scheda video? Magari qualche configurazione,

premetto che avevo installato i driver dal cd fornito con essa su xp precedentemente avendo un punteggio di 11400 con 3dmark.

Poi quando ho messo vista ho installato i nuovi driver appena rilasciati da ati. per poi notare che con 3dmark 2006 ho ottenuto in punteggio di 10880 e in alcuni test, come quello della neve, c'erano come delle esplosioni improvvise di luce .

Secondo me è colpa della mia totale inesperienza nel campo per questo chiedo aiuto a voi, potreste gentilmente consigliarmi parametri da settare per ottenere il massimo dalla mia scheda video? Grazie 1000 in anticipo un grazie grande così CIAO!!!

:eek: :eek:
il fratello gemello minore di quello che ho ordinato io....:O

+Lonewolf+
16-10-2007, 21:34
Ho appena acquistato un nuovo PC Così Configurato:

Scheda Madre 775 Gigabyte GA-P35C-DS3R
Processore Intel Core 2 Quad Q6600 Step G0
Scheda Video PowerColor Ati Radeon HD2900XT 1Gb Ram
2 x 1 GB Ram Pc 800Mhz Kit Geil con Dissipatore in alluminio
Hard Disk Maxtor 320 Gb Sata 2
Alimentatore Gold Rose Power Fan 600W
Masterizzatore DVD DL Sony
Lettore DVD LG
Lettore Multicard all in one 3,5"
Lettore Floppy Samsung
Scheda PCI FIREWIRE
Scheda Aggiuntiva Ethernet 10/100
Windows Vista Ultimate 64 Bit

Credo di averci messo tutto

Quello che vi chiedo, è:
Conoscete un metodo per configurare al meglio la mia scheda video? Magari qualche configurazione,

premetto che avevo installato i driver dal cd fornito con essa su xp precedentemente avendo un punteggio di 11400 con 3dmark.

Poi quando ho messo vista ho installato i nuovi driver appena rilasciati da ati. per poi notare che con 3dmark 2006 ho ottenuto in punteggio di 10880 e in alcuni test, come quello della neve, c'erano come delle esplosioni improvvise di luce .

Secondo me è colpa della mia totale inesperienza nel campo per questo chiedo aiuto a voi, potreste gentilmente consigliarmi parametri da settare per ottenere il massimo dalla mia scheda video? Grazie 1000 in anticipo un grazie grande così CIAO!!!

penso che tu abbia installato i drivers senza disinstallare i vecchi...


disinstalla i vecchi e installa i cata 7.10...poi dai an che una occata al processore,magari portandolo a 2.8ghz che nn fa male;)

DVD2005
16-10-2007, 21:44
:eek: :eek:
il fratello gemello minore di quello che ho ordinato io....:O

quando arriva in firma ?

7stars
16-10-2007, 21:58
penso che tu abbia installato i drivers senza disinstallare i vecchi...


disinstalla i vecchi e installa i cata 7.10...poi dai an che una occata al processore,magari portandolo a 2.8ghz che nn fa male;)
se come dici sei inesperto oltre a questo ti consiglierei di non usare il vista64...ma il 32 se proprio vuoi usare le dx10,al momento non è proprio indispensabile in virtù di quel ke è noto ormai però sicuramente il 32 ha meno problemi,anche di performance.soprattutto per i giochi e a volte non dipende dal SO ma proprio dal gioco stesso e dai drivers...

M4R1|<
16-10-2007, 22:09
penso che tu abbia installato i drivers senza disinstallare i vecchi...


disinstalla i vecchi e installa i cata 7.10...poi dai an che una occata al processore,magari portandolo a 2.8ghz che nn fa male;)

mhm le geil lo possono portare anche a 3500Mhz (:D )

quindi ti converrebbe tantissimo ;)

+Lonewolf+
16-10-2007, 22:13
mhm le geil lo possono portare anche a 3500Mhz (:D )

quindi ti converrebbe tantissimo ;)

nn ho visto se aveva il dissipatore o no...:D



:p


tt bene marik?

M4R1|<
16-10-2007, 22:39
nn ho visto se aveva il dissipatore o no...:D



:p


tt bene marik?

Bene Bene (con B maiuscola)

dovrei parlarti in msn, leggi il pvt ;)

TecnoWorld8
16-10-2007, 22:46
Scheda Madre 775 Gigabyte GA-P35C-DS3R
Processore Intel Core 2 Quad Q6600 Step G0
Scheda Video PowerColor Ati Radeon HD2900XT 1Gb Ram
2 x 1 GB Ram Pc 800Mhz Kit Geil con Dissipatore in alluminio
Hard Disk Maxtor 320 Gb Sata 2
Alimentatore Gold Rose Power Fan 600W
Masterizzatore DVD DL Sony
Lettore DVD LG
Lettore Multicard all in one 3,5"
Lettore Floppy Samsung
Scheda PCI FIREWIRE
Scheda Aggiuntiva Ethernet 10/100
Windows Vista Ultimate 64 Bit



non avrei mai preso la 2900xt da 1GB...risparmiando, prendevi una GTX, ma cmq è un'ottima configurazione. Permettimi di consigliarti altri 2GB dato che hai messo su Vista 64bit.

M4R1|<
16-10-2007, 22:50
non avrei mai preso la 2900xt da 1GB...risparmiando, prendevi una GTX, ma cmq è un'ottima configurazione. Permettimi di consigliarti altri 2GB dato che hai messo su Vista 64bit.

allora io che uso i 64bit da anni ormai ti posso dire che è vero, occupano più ram, ma io adesso con vista 64 ho dopo 2 min che il pc è acceso solo 600mb costanti utilizzati. sta tutto in un po' di ottimizzzazione ;) (secondo me) poi se uno vuole maggiori spazzi ok, però 2gb adesso bastano

TecnoWorld8
16-10-2007, 22:52
allora io che uso i 64bit da anni ormai ti posso dire che è vero, occupano più ram, ma io adesso con vista 64 ho dopo 2 min che il pc è acceso solo 600mb costanti utilizzati. sta tutto in un po' di ottimizzzazione ;) (secondo me) poi se uno vuole maggiori spazzi ok, però 2gb adesso bastano

lo dicevo più che altro perchè, mentre ne prendeva 2GB, poteva prenderne altri 2GB identici, cosa difficile, magari, tra 6 mesi o un anno...

M4R1|<
16-10-2007, 22:53
lo dicevo più che altro perchè, mentre ne prendeva 2GB, poteva prenderne altri 2GB identici, cosa difficile, magari, tra 6 mesi o un anno...

a be ok, allora quoto (nn avevo pensato a questa eventualità sorry)

edit: notte a tutti, visto che domani ho una giornata nn facile

Iantikas
16-10-2007, 23:09
raga avrei bisogno d un piccolo confronto con ki possiede la XT x sapere se dei risultati ke ottengo son normali o c'è qualcosa ke nn quadra...


...in pratica stavo osservando e comparando i vari risultati quando mi soffermo su un paio d test al 3dmark06...d test al 3dmark06 ne avevo fatto un bordello xò nn mi era mai venuto d vedere quanto potesse incidere l'AF (avevo fatto un casino d test x vedere quanto incidesse il solo AA o AA+AF ma nn mi era mai venuto d vedere ke differenza portava il solo AF)...beh tagliando corto tra il 3dmark fatto a 1680x1050 no AA/AF e fatto a 1680x1050 no aa/16xAF c'è una differenza d punteggio ke mi sembra troppo elevata...

... http://img141.imageshack.us/img141/616/061680x1050noaaafxg5.th.jpg (http://img141.imageshack.us/my.php?image=061680x1050noaaafxg5.jpg) ...

... http://img141.imageshack.us/img141/3085/061680x1050noaa16afcp3.th.jpg (http://img141.imageshack.us/my.php?image=061680x1050noaa16afcp3.jpg) ...


...come si può vedere dagli screen il solo 16xAF fa passare il punteggio sm2.0 da 4604 a 3712 (il primo test da 35.8fps a 29.9fps...il secondo da 40.8 a 31.9)...mentre sm3.0 passa da 4902 a 4498 (con il primo test ke va da 45.1 a 37.7 mentre il secondo rimane pressokkè identico passando da 52.8 a 52.1)...


...mi sembrano differenze troppo elevate...possono trovare in parte spiegazione in come son fatti i test (con quelli sm2.0 ke sono + "texture limited" e quelli sm3.0 + "shader limited", sopratutto il secondo ke quasi totalmente shader limited) ma rimangono cmq "strane"...

...qualcuno può fare lo stesso test x vedere ke risultati ottiene?...ciao

TecnoWorld8
16-10-2007, 23:54
in sm3 mi sembra ragionevole (8% di differenza) ma in sm2 è davvero assurdo! quasi il 25% di penalizzazione...sarebbe interessante capire se è un problema generalizzato o solamente tuo.

M4R1|<
17-10-2007, 05:58
raga avrei bisogno d un piccolo confronto con ki possiede la XT x sapere se dei risultati ke ottengo son normali o c'è qualcosa ke nn quadra...


...in pratica stavo osservando e comparando i vari risultati quando mi soffermo su un paio d test al 3dmark06...d test al 3dmark06 ne avevo fatto un bordello xò nn mi era mai venuto d vedere quanto potesse incidere l'AF (avevo fatto un casino d test x vedere quanto incidesse il solo AA o AA+AF ma nn mi era mai venuto d vedere ke differenza portava il solo AF)...beh tagliando corto tra il 3dmark fatto a 1680x1050 no AA/AF e fatto a 1680x1050 no aa/16xAF c'è una differenza d punteggio ke mi sembra troppo elevata...

... http://img141.imageshack.us/img141/616/061680x1050noaaafxg5.th.jpg (http://img141.imageshack.us/my.php?image=061680x1050noaaafxg5.jpg) ...

... http://img141.imageshack.us/img141/3085/061680x1050noaa16afcp3.th.jpg (http://img141.imageshack.us/my.php?image=061680x1050noaa16afcp3.jpg) ...


...come si può vedere dagli screen il solo 16xAF fa passare il punteggio sm2.0 da 4604 a 3712 (il primo test da 35.8fps a 29.9fps...il secondo da 40.8 a 31.9)...mentre sm3.0 passa da 4902 a 4498 (con il primo test ke va da 45.1 a 37.7 mentre il secondo rimane pressokkè identico passando da 52.8 a 52.1)...


...mi sembrano differenze troppo elevate...possono trovare in parte spiegazione in come son fatti i test (con quelli sm2.0 ke sono + "texture limited" e quelli sm3.0 + "shader limited", sopratutto il secondo ke quasi totalmente shader limited) ma rimangono cmq "strane"...

...qualcuno può fare lo stesso test x vedere ke risultati ottiene?...ciao

mhm allora che l'aa incidesse tanto era risaputo, ma che l'af incidesse così tanto assolutament no, tanto che si può considerare quasi "gratis" l'af16x, cmq adessonn posso oggi quando torno a casa ti faccio un paio di prove.
una a 1208x1024 aa/af off e una 1280x1024 aa off af 16x

Marko#88
17-10-2007, 06:00
decisamente una differenza assurda per il solo af....:eek:

halduemilauno
17-10-2007, 08:11
si concordo, però quello su cui sono un po' scettico è il fatto che cmq dalla XT a 870 alla ultra nn credo ci sia un abisso così marcato. e poi cmq sapendo che ci sono da qui a poco numerose revisioni (ed è una certezza perchè G80 va per i 12 mesi e R600 per i 6, quindi di sicuro ci sarà qualcosa) è un po' un azzardo. certo che è anche vero che però attualmente la ultra è la top, ti consente di mettere filtri e quant altro senza grossi problemi alla sua ress (e anche più alte) quindi sicuramente se nn cambia tra 3 mesi la 8800 gli tira di più di R600.

spero che nn si ritrovi una delusione, anche perchè mi spiacerebbe visto che 150€ sono sempre 300mila £ e cmq nessuno qui ha la macchinetta in cantina per i soldi (a parte ovviamente il sottoscritto :D ma nn ditelo a nessuno :D:D).

e rispetto a una ultra diciamo a 670?

carlok
17-10-2007, 08:51
che utility usate per settare la venatola della 2900 sotto Vista 64bit ?

Iantikas
17-10-2007, 09:08
un altro test appena sfornato su UT3...

http://www.anandtech.com/video/showdoc.aspx?i=3127

...ciao

Iantikas
17-10-2007, 09:11
mhm allora che l'aa incidesse tanto era risaputo, ma che l'af incidesse così tanto assolutament no, tanto che si può considerare quasi "gratis" l'af16x, cmq adessonn posso oggi quando torno a casa ti faccio un paio di prove.
una a 1208x1024 aa/af off e una 1280x1024 aa off af 16x


infatti...a 1680x1050 nn mi sarei aspettato la differenza ke c'è nel 4 test d meno d 1fps ma cmq una differenza molto + vicina a questo valore ke agli altri...attendo i result, ciao

carlok
17-10-2007, 09:18
che utility usate per settare la venatola della 2900 sotto Vista 64bit ?

mi uppo la domanda xche' mi interessa....
nessun ha il mio problema?

Iantikas
17-10-2007, 09:24
mi uppo la domanda xche' mi interessa....
nessun ha il mio problema?


nn ho vista 64 e nn so se son compatibili cmq prova con atitool o con rivatuner...ciao

Catan
17-10-2007, 09:41
raga avrei bisogno d un piccolo confronto con ki possiede la XT x sapere se dei risultati ke ottengo son normali o c'è qualcosa ke nn quadra...


...in pratica stavo osservando e comparando i vari risultati quando mi soffermo su un paio d test al 3dmark06...d test al 3dmark06 ne avevo fatto un bordello xò nn mi era mai venuto d vedere quanto potesse incidere l'AF (avevo fatto un casino d test x vedere quanto incidesse il solo AA o AA+AF ma nn mi era mai venuto d vedere ke differenza portava il solo AF)...beh tagliando corto tra il 3dmark fatto a 1680x1050 no AA/AF e fatto a 1680x1050 no aa/16xAF c'è una differenza d punteggio ke mi sembra troppo elevata...

... http://img141.imageshack.us/img141/616/061680x1050noaaafxg5.th.jpg (http://img141.imageshack.us/my.php?image=061680x1050noaaafxg5.jpg) ...

... http://img141.imageshack.us/img141/3085/061680x1050noaa16afcp3.th.jpg (http://img141.imageshack.us/my.php?image=061680x1050noaa16afcp3.jpg) ...


...come si può vedere dagli screen il solo 16xAF fa passare il punteggio sm2.0 da 4604 a 3712 (il primo test da 35.8fps a 29.9fps...il secondo da 40.8 a 31.9)...mentre sm3.0 passa da 4902 a 4498 (con il primo test ke va da 45.1 a 37.7 mentre il secondo rimane pressokkè identico passando da 52.8 a 52.1)...


...mi sembrano differenze troppo elevate...possono trovare in parte spiegazione in come son fatti i test (con quelli sm2.0 ke sono + "texture limited" e quelli sm3.0 + "shader limited", sopratutto il secondo ke quasi totalmente shader limited) ma rimangono cmq "strane"...

...qualcuno può fare lo stesso test x vedere ke risultati ottiene?...ciao


i test li hai fatti a gpu def o sempre in oc?

Iantikas
17-10-2007, 09:44
i test li hai fatti a gpu def o sempre in oc?

in oc ma a def cambieranno i risultati ma la differenza in percentuale + o - credo rimanga...ciao

Menion83
17-10-2007, 12:23
Qualcuno ha provato la scheda con gli ultimi Catalyst (i 7.10)? C'è un netto miglioramento oppure le 8800 sono ancora superiori di tanto?
CIAO!

Athlon 64 3000+
17-10-2007, 12:36
ho visto il test di anandtech e la hd 2900xt senza AA praticamente lotta alla pari della 8800GTX.
Se è vero nei giochi che usano l'UE3 senza AA con il fatto che fa uso di molti shader la hd 2900xt va uguale alla 8800GTX.

+Lonewolf+
17-10-2007, 12:38
ho visto il test di anandtech e la hd 2900xt senza AA praticamente lotta alla pari della 8800GTX.
Se è vero nei giochi che usano l'UE3 senza AA con il fatto che fa uso di molti shader la hd 2900xt va uguale alla 8800GTX.

calcola che cmq il rapporto ALU:TEXT di UT3 non è elevatissimo, mi pare si faccia anche massiccio uso di pixel fill rate...cmq interessanti i test di hl2 ep2 con AA via shader...

TecnoWorld8
17-10-2007, 12:40
nel test di AnandTech su UT3 la 2900xt si comporta molto bene; diciamo che con i giochi basati su quel motore, questa scheda va/andrà alla grande. Poco meno di una GTX, parecchio più di una GTS. Chissà cosa succederà quando si potrà attivare l'AA, se perderà molto o no...

Athlon 64 3000+
17-10-2007, 12:41
calcola che cmq il rapporto ALU:TEXT di UT3 non è elevatissimo, mi pare si faccia anche massiccio uso di pixel fill rate...cmq interessanti i test di hl2 ep2 con AA via shader...

allora come spieghi il fatto che R600 pareggio G80 nelle prestazioni in UTIII?

safendi
17-10-2007, 12:42
Qualcuno ha provato la scheda con gli ultimi Catalyst (i 7.10)? C'è un netto miglioramento oppure le 8800 sono ancora superiori di tanto?
CIAO!

è migliorata pochissimo, rimane sempre dietro la 8800gtx

zorco
17-10-2007, 12:45
è migliorata pochissimo, rimane sempre dietro la 8800gtx
si ma sempre sopra la quel baraccone della 8800gts:Prrr:

safendi
17-10-2007, 12:50
si ma sempre sopra la quel baraccone della 8800gts:Prrr:

non è un baraccone invece, con aa sta sopra la 2900

Iantikas
17-10-2007, 12:56
Qualcuno ha provato la scheda con gli ultimi Catalyst (i 7.10)? C'è un netto miglioramento oppure le 8800 sono ancora superiori di tanto?
CIAO!

i miglioramenti sono ristretti ai titoli specificati nella release note e riguardano quindi in particolar modo il CF(qui una rece http://www.pcper.com/article.php?type=expert&aid=463 da cui puoi vedere a quanto ammontano tenendo cmq presente ke come scritto nella release note tali miglioramenti sono da considerarsi come "fino a" e su config diverse o scenari nn trattati da quella rece possono essere superiore [o inferiori])...

...in DX9 a singola skeda la situazione è all'incirca la stessa ke c'era coi 7.9 ( http://www.tweaktown.com/articles/1202/ati_catalyst_7_10_analysis_xp_vista/index.html )...

...ciao


p.s.: le 8800 sono ancora superiori di tanto?

se x 8800 intendi GTX/Ultra si in generale son superiori...se invece intendi anke la GTS allora no, dato ke già da tempo la XT si è ivelata superiore ( http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html )

Iantikas
17-10-2007, 13:03
non è un baraccone invece, con aa sta sopra la 2900

son concorde sul fatto ke nn sia un baraccone ma una volta ogni tanto potresti dimostrare un pò d'obiettività e constatare il fatto ke anke con AA (a parte rari casi) è mediamente inferiore alla XT (http://www.xbitlabs.com/articles/video/display/diamond-viper-hd2900xt-1024mb.html)...


...quindi da punto esclusivamente prestazionale la XT è preferibile...poi naturalmente nella scelta d una skeda nn si guardano solo le prestazioni ma tanti altri fattori e da quest'altro punto di vista se la battono alla pari con la prevalenza di una o dell'altra dovuta esclusivamente ad una preferenza personale (e x preferenza personale nn intendo l'attakkamento al markio ke è una cosa ke aborro...ma il peso diverso ke ognuno d noi da ai vari fattori ke influenzano la scelta)...

...ciao

ninja970
17-10-2007, 13:04
ma la GeCube ha già preparato il sito alle nuove release ?

http://www.gecube.com/products-02.php?prod_cat_pid=213&prod_cat_id=214

sanno anche che si chiamerà HD3800 ? :confused:

Iantikas
17-10-2007, 13:06
ma la GeCube ha già preparato il sito alle nuove release ?

http://www.gecube.com/products-02.php?prod_cat_pid=213&prod_cat_id=214

sanno anche che si chiamerà HD3800 ? :confused:


si vede ke x novembre c'è qualke sorpresa ke hanno tenuto nascosta...

...ciao

halduemilauno
17-10-2007, 13:14
http://rage3d.com/board/showpost.php?p=1335186637&postcount=302

gianni1879
17-10-2007, 13:24
ma la GeCube ha già preparato il sito alle nuove release ?

http://www.gecube.com/products-02.php?prod_cat_pid=213&prod_cat_id=214

sanno anche che si chiamerà HD3800 ? :confused:

a quanto sembrano le ultime news c'è un cambio di nome, HD3000 series ;)
forse vuole lasciarsi alle spalle le hd2900

TecnoWorld8
17-10-2007, 13:29
quindi praticamente "buttano a mare" le 2900xt e chi le ha comprate...non mi sembra una mossa molto gentile verso i clienti, se davvero 2900xt sarà durata così poco sul mercato...

gianni1879
17-10-2007, 13:32
quindi praticamente "buttano a mare" le 2900xt e chi le ha comprate...non mi sembra una mossa molto gentile verso i clienti, se davvero 2900xt sarà durata così poco sul mercato...

poco?? non sarà durata tantissimo ma è normale che esce dopo un pò la sostituta (per fortuna direi) e cmq mica le hd2900xt esplodono magicamente il giorno dopo

Chief
17-10-2007, 13:35
quindi praticamente "buttano a mare" le 2900xt e chi le ha comprate...non mi sembra una mossa molto gentile verso i clienti, se davvero 2900xt sarà durata così poco sul mercato...

Non penso sia così comunque anche se uscisse la serie hd3000 la 2900 risulterebbe ancora un ottima scheda...solo che come sappiamo la 2900 non è una vera e propria high end...mi sa che questa volta ati punta anche su una high end ed ecco verranno fuori le 3900 xt...

zorco
17-10-2007, 13:40
non è un baraccone invece, con aa sta sopra la 2900
le uniche schede che stanno sopra la 2900 con AA sono le gtx/ultra..

ciao

Quoziente
17-10-2007, 13:41
quindi praticamente "buttano a mare" le 2900xt e chi le ha comprate...non mi sembra una mossa molto gentile verso i clienti, se davvero 2900xt sarà durata così poco sul mercato...

...mi girano... mamma mia quanto mi girano... :mad: :mad: :mad:
se la cosa è vera (e presumo di si visto il sito Gecube), ATI vuole il sorpasso su Nvidia. Bisognerà vedere però cosa ha in serbo (o in croato...:D ) Nvidia per controbattere...

Athlon 64 3000+
17-10-2007, 13:43
teoricamente la serie hd 3000 dovrebbe uscire con R700 e derivati.
Mi sembra strano che già con RV670 useranno questi nomi.
le hd 2400 e 2600xt sono sul mercato da appena 4 mesi e mezzo.

zorco
17-10-2007, 13:50
teoricamente la serie hd 3000 dovrebbe uscire con R700 e derivati.
Mi sembra strano che già con RV670 useranno questi nomi.
le hd 2400 e 2600xt sono sul mercato da appena 4 mesi e mezzo.
quoto questa serie hd 3000 sembra proprio essere l'R700,molto probabilmente uscirà l'anno prossimo,mentre per fine anno sostiuiranno l'R600 con RV670 che gli costa produrlo di meno...

gianni1879
17-10-2007, 13:54
quoto questa serie hd 3000 sembra proprio essere l'R700,molto probabilmente uscirà l'anno prossimo,mentre per fine anno sostiuiranno l'R600 con RV670 che gli costa produrlo di meno...

quello di sicuro, anche se c'è in previsione R680 per gennaio ;) (anche se deriva da un progetto di RV670)

TecnoWorld8
17-10-2007, 13:56
poco?? non sarà durata tantissimo ma è normale che esce dopo un pò la sostituta (per fortuna direi) e cmq mica le hd2900xt esplodono magicamente il giorno dopo

beh, 2900xt è sul mercato da 5 mesi e probabilmente la serie 3000 la butterà fuori. 8800 gts è sul mercato da 11 mesi...e probabilmente ne uscirà tra un mesetto circa...direi che il raffronto è inevitabile!

wiltord
17-10-2007, 13:56
all'orizzonte se ne vedono delle belle, e detto apertamente, a sto punto sono felice di aver saltato la serie HD2000..

Grave Digger
17-10-2007, 14:02
all'orizzonte se ne vedono delle belle, e detto apertamente, a sto punto sono felice di aver saltato la serie HD2000..

quoterrimo,e poi detto da un mod fa un certo effetto :) ....

ninja970
17-10-2007, 14:03
le uniche schede che stanno sopra la 2900 con AA sono le gtx/ultra..

vero, motivo per il quale anche oggi comprare una 2900XT non è affatto una brutta scelta, IMHO :)

ninja970
17-10-2007, 14:05
all'orizzonte se ne vedono delle belle, e detto apertamente, a sto punto sono felice di aver saltato la serie HD2000..
dipende da che scheda si ha al momento, anche io con la tua avrei saltato la serie 2000 in quanto hai una VGA che dice ancora la sua ;)
Io invece devo cambiare ora, mi sono rotto di aspettare :D

Catan
17-10-2007, 14:06
quello di sicuro, anche se c'è in previsione R680 per gennaio ;) (anche se deriva da un progetto di RV670)

tecnicamente rv670 e r680 vengono entrambi da r600 sempre 320sp non so se la circuiteria rop's riarrangiata per fare aa in maniera classica e non solo in shader core.
credo che l'unica differenza tra rv670 e r680 sia il bus da 256bit per la prima e 512 per la seconda.
anche se visto le esigue differenze dovranno strapompera r680 in clock(se rv670 si parla di 825mhz r680 deve andare almeno sui 900) montando sempre gddr4 da 2400mhz per entrambe.

wiltord
17-10-2007, 14:08
dipende da che scheda si ha al momento, anche io con la tua avrei saltato la serie 2000 in quanto hai una VGA che dice ancora la sua ;)
Io invece devo cambiare ora, mi sono rotto di aspettare :D

ovviamente ;)

tarabas2
17-10-2007, 14:09
ragazzi scusate se questo nn è il topic + adatto dove postare ma essendo anke voi possessori di hd2900xt mi potete senz'altro aiutare.
ho attivato un prodotto steam e preso quindi hl2 episodio2, c'è un verso x poterlo giocare in ita? nn ci capisco nulla in inglese e mi perdo il gusto della storia.
grazie anticipatamente.

TecnoWorld8
17-10-2007, 14:12
all'orizzonte se ne vedono delle belle, e detto apertamente, a sto punto sono felice di aver saltato la serie HD2000..

oltre che dalla scheda posseduta, dipende anche dal prezzo che si paga; io per esempio sto cercando una 2900xt di seconda mano sui 220-250€ circa. se la trovassi penso la prenderei anche ora che si sa che ne escono di nuove...

M4R1|<
17-10-2007, 14:13
http://rage3d.com/board/showpost.php?p=1335186637&postcount=302

la cosa mi lascia molto confuso e con poche (anzi pochissime parole):confused:

M4R1|<
17-10-2007, 14:17
ma la GeCube ha già preparato il sito alle nuove release ?

http://www.gecube.com/products-02.php?prod_cat_pid=213&prod_cat_id=214

sanno anche che si chiamerà HD3800 ? :confused:

:confused: :mbe: ma R700 nn deve mica uscire il prossimo anno?

TecnoWorld8
17-10-2007, 14:17
mi è stato detto che è possibile attivare l'AA in UT3, rinominando l'exe in oblivion.exe, esattamente come per bioshock.

qualcuno ha voglia di provare a vedere se in effetti l'AA si attiva?

M4R1|<
17-10-2007, 14:20
Non penso sia così comunque anche se uscisse la serie hd3000 la 2900 risulterebbe ancora un ottima scheda...solo che come sappiamo la 2900 non è una vera e propria high end...mi sa che questa volta ati punta anche su una high end ed ecco verranno fuori le 3900 xt...

si ma sono passati 6 mesi dalla 2900, nn riesco a capire una mazza:cry: ma nn doveva uscire l'anno prossimo?

Quoziente
17-10-2007, 14:25
La cosa che mi pare strana è che Gecube aggiorni il sito con oltre tre mesi di anticipo... Non vorrei che ATI avesse accelerato i tempi (magari saltando r670/680) e passi direttamente a r700...

ninja970
17-10-2007, 14:30
La cosa che mi pare strana è che Gecube aggiorni il sito con oltre tre mesi di anticipo... Non vorrei che ATI avesse accelerato i tempi (magari saltando r670/680) e passi direttamente a r700...

in effetti è quello che sembra strano anche a me.

Perchè preparare già la pagina con la serie 3000 se questa fosse prevista non prima di 3 mesi ?

Sarebbe controproducente anche per loro....

Pat77
17-10-2007, 14:35
quindi praticamente "buttano a mare" le 2900xt e chi le ha comprate...non mi sembra una mossa molto gentile verso i clienti, se davvero 2900xt sarà durata così poco sul mercato...

Ma all'utente, sinceramente, che gli frega i questo, buttano a mare? Dopo questa notizia forse hd2900 non sarà più supportata? Ricordo che nei Cata ci sono ottimizzazioni anche per 8500 ogni tanto il release note, fai te..

Iantikas
17-10-2007, 14:36
http://rage3d.com/board/showpost.php?p=1335186637&postcount=302

x me questo cambimento nei nomi vuo ldire una cosa...ke RV670 apporterà modifike degne d nota al core (forse alle rop?)...altrimenti nn avreppe senso appssare al 3

...kiamarla serie HD3x00 e poi avere lo stesso core della serie HD2x00 mi sembrerebbe una buffonata, sinceramente anke peggio del "do u dare?"...ciao

M4R1|<
17-10-2007, 14:49
infatti...a 1680x1050 nn mi sarei aspettato la differenza ke c'è nel 4 test d meno d 1fps ma cmq una differenza molto + vicina a questo valore ke agli altri...attendo i result, ciao

guarda e giudica tu stesso

http://img518.imageshack.us/img518/3642/001hp4.th.jpg (http://img518.imageshack.us/my.php?image=001hp4.jpg)
http://img84.imageshack.us/img84/3139/002wh5.th.jpg (http://img84.imageshack.us/my.php?image=002wh5.jpg)

più o meno c'è una perdata di circa 400 punti sia in SM 2.0 che SM 3.0, per essere precisi applicando AF 16x avviane:

- ~ 8,72% in SM 3.0 e - ~ 8.80 in SM 2.0

mi sembrano un po' sballati rispetto hai tuoi, considera però 3 cose:
la mia cpu (un po' limit)
la mia vga a default
è un test sintetico, quindi ti da un idea, basta

Iantikas
17-10-2007, 14:59
guarda e giudica tu stesso

http://img518.imageshack.us/img518/3642/001hp4.th.jpg (http://img518.imageshack.us/my.php?image=001hp4.jpg)
http://img84.imageshack.us/img84/3139/002wh5.th.jpg (http://img84.imageshack.us/my.php?image=002wh5.jpg)

più o meno c'è una perdata di circa 400 punti sia in SM 2.0 che SM 3.0, per essere precisi applicando AF 16x avviane:

- ~ 8,72% in SM 3.0 e - ~ 8.80 in SM 2.0

mi sembrano un po' sballati rispetto hai tuoi, considera però 3 cose:
la mia cpu (un po' limit)
la mia vga a default
è un test sintetico, quindi ti da un idea, basta

beh ma avresti dovuto farlo a 1680x1050...cmq c son troppe differenze (cioè con tutto ke da me si registra un calo elevato io a 1680x1050 16xAF faccio in entrambi i test 400 punti in + d te a 1280x1024 senza AF)...


...ora metto vga a def e faccio il test a 1280x1024 come l'hai fatto tu e vediamo cosa esce fuori...

...ciao

M4R1|<
17-10-2007, 15:00
in effetti è quello che sembra strano anche a me.

Perchè preparare già la pagina con la serie 3000 se questa fosse prevista non prima di 3 mesi ?

Sarebbe controproducente anche per loro....

ma teoricamente sarebbero in grado di lanciare R700 fra 3 mesi? (o meno)

secondo me no, ameno che davvero quando si sono resi conto di quello che era R600 abbiano deciso (molto più di un anno fa) di lasciare il proggetto, e di mettersi di corsa a fare R700 per poi rilasciarlo sotto natale. l'unica cosa che mi suona strana è che nussuno da ati a intel ha mai cambiato generazione così velocemente e tantomeno numenclatura senza cambiare generazione. che veramente rilascino a breve solo R700 e basta?

TecnoWorld8
17-10-2007, 15:00
Ma all'utente, sinceramente, che gli frega i questo, buttano a mare? Dopo questa notizia forse hd2900 non sarà più supportata? Ricordo che nei Cata ci sono ottimizzazioni anche per 8500 ogni tanto il release note, fai te..

beh, se pensi sia bello, dopo 5 mesi, vedere la propria VGA pagata 370€ come obsoleta...

io sono davvero felice di non averla presa a quel prezzo, all'uscita. credo che come me tanti altri e credo che chi ha questa scheda, non sia felicissimo, di quello che sta accadendo, a meno di non averla presa usata a 250€ o meno...

M4R1|<
17-10-2007, 15:01
beh ma avresti dovuto farlo a 1680x1050...cmq c son troppe differenze (cioè con tutto ke da me si registra un calo elevato io a 1680x1050 16xAF faccio in entrambi i test 400 punti in + d te a 1280x1024 senza AF)...


...ora metto vga a def e faccio il test a 1280x1024 come l'hai fatto tu e vediamo cosa esce fuori...

...ciao

ok, cmq nn avrei potuto farlo a 1680x1050, il mio monitor nn ci arriva

mordsiger
17-10-2007, 15:05
raga..affare fatto...venduta la 2900xt 1gb e acquistata la xfx 8800gtx xxx...

TecnoWorld8
17-10-2007, 15:16
raga..affare fatto...venduta la 2900xt 1gb e acquistata la xfx 8800gtx xxx...

ormai tutti abbandonano il carro delle 2900xt...se continua così, tra pochissimo si potranno trovare sull'usato al prezzo che io considero equo per questa scheda, cioè 250€ o meno

DVD2005
17-10-2007, 15:16
raga..affare fatto...venduta la 2900xt 1gb e acquistata la xfx 8800gtx xxx...

ma vi state ri-convertendo tutti ?

mordsiger
17-10-2007, 15:18
ma vi state ri-convertendo tutti ?

ho dato via la 2900 1gb al prezzo che l'ho pagata io....è stata una cosa inasppettata...allora dato che nn ho mai provato la gtx...vai

TecnoWorld8
17-10-2007, 15:30
ho dato via la 2900 1gb al prezzo che l'ho pagata io....è stata una cosa inasppettata...allora dato che nn ho mai provato la gtx...vai

anche a te, chiederei di fare una comparativa con benchmark, se ti va!!! sarebbe MOLTO interessante ;)

zorco
17-10-2007, 15:33
ma vi state ri-convertendo tutti ?
nò per quanto mi riguarda,la scheda ancora soddisfa appieno le mie esigenze cambiarla con un'altra non ci penso proprio,specialmente se si parla di una scheda orami fine serie anchessa...

mordsiger
17-10-2007, 15:35
anche a te, chiederei di fare una comparativa con benchmark, se ti va!!! sarebbe MOLTO interessante ;)

ovvio !!

Chief
17-10-2007, 15:37
nò per quanto mi riguarda,la scheda ancora soddisfa appieno le mie esigenze cambiarla con un'altra non ci penso proprio,specialmente se si parla di una scheda orami fine serie anchessa...

Quoto per il momento questa vga soddisfa ancora i miei canoni di gioco, sarebbe per me inutile cambiarla...si vedrà con le nuove vga in arrivo............

fukka75
17-10-2007, 15:39
cmq interessanti i test di hl2 ep2 con AA via shader...

Ti riferisci ai test su Ep2 di anandtech? non ho trovato nessun accenno al fatto che AA venga fatto via shader (tra la'ltro i risultati sono i soliti, cioè crollo delle prestazioni ai livelli di una X1950XTX) :confused:
Potresti dirmi dove lo hai letto?

Iantikas
17-10-2007, 15:46
ok, cmq nn avrei potuto farlo a 1680x1050, il mio monitor nn ci arriva


ho rifatto i test a 1280x1024 e con la skeda a def così come li hai fatti tu...

1280x1024 no aa-af

http://img520.imageshack.us/img520/8463/061280x1024noaaaffreqdede2.th.jpg (http://img520.imageshack.us/my.php?image=061280x1024noaaaffreqdede2.jpg)


1280x1024 no aa 16xAF

http://img134.imageshack.us/img134/3006/061280x1024noaa16affreqtv9.th.jpg (http://img134.imageshack.us/my.php?image=061280x1024noaa16affreqtv9.jpg)


...le differenze sono molto simili (se nn quasi identike) a quelle ke c'erano nel mio test precedente fatto con la skeda in oc e a 1680x1050...

...a questo punto credo ke i risultati siano mormali (anke xkè i result da te postati sono fortemente limitati dal resto del sistema sia con ke senza filtro [x es. ne test a def senza filtri fai 3300/4000...decisamente poki x una XT a def [ke solitamente fa circa 1200/1300 punti in + in entrambi i test]...da qui quindi la minore differenza ke registri una volta abilitato l'AF)...


...rimane cmq il fatto ke sia un test sintetico e come tale va preso...x es. negli screen d LP ke ho postato l'altro giorno ho fatto lo stesso tipo d test e da 1680x1050 no aa-af a con 16xAF si passa da 40.8 a 39.1...quindi una lieve differenza come è lecito attendersi...

...si vede ke i test del 3dmark06, sopratutto quelli sm2.0, sono molto texture limited (daltronde era risaputo ke fosse così ma nn immagginavo fino a questo punto)...

...ciao

Iantikas
17-10-2007, 15:51
Ti riferisci ai test su Ep2 di anandtech? non ho trovato nessun accenno al fatto che AA venga fatto via shader (tra la'ltro i risultati sono i soliti, cioè crollo delle prestazioni ai livelli di una X1950XTX) :confused:
Potresti dirmi dove lo hai letto?



penso si riferisse a quelli d hard-ocp ke oltre all'AA normale hanno testato anke con quello x le texture trasparenti... http://enthusiast.hardocp.com/article.html?art=MTQwNCwxLCxoZW50aHVzaWFzdA== ...ciao

Catan
17-10-2007, 16:01
beh ma avresti dovuto farlo a 1680x1050...cmq c son troppe differenze (cioè con tutto ke da me si registra un calo elevato io a 1680x1050 16xAF faccio in entrambi i test 400 punti in + d te a 1280x1024 senza AF)...


...ora metto vga a def e faccio il test a 1280x1024 come l'hai fatto tu e vediamo cosa esce fuori...

...ciao

allora ragazzi io mi sono fatto un pò di test su questa cosa che ho concluso propio adesso.
il test è fatto con il pc in sign e vga non oc(virtualmente nn sarebbe servito dobbiamo vedere solo il calo di performances) alla RISOLUZIONE standard del 3dmark06 che è di 1280x1024.

iniziamo
no AF
sm2.0 4690
sm3.0 5256

a questo punto ho iniziato sparando subito AF 16X

2.0 2928
3.0 4745

qui gia si vede un calo poco incidente dell'ordine del 10% in sm3.0 mentre quasi del 40% dell'sm2.0.

a questo punto ho deciso di provare anche gli altri 3 livello di af

af 8x

3380
4745

qui come vediamo l'impatto del 8x sulle sulle prestazioni rispetto al 16x è quasi nullo in sm3.0 mentre in sm2.0 c'è ancora e consistente.

af 4x

3385
4900

anche qui come si vede invece il calo prestazionale passando da un 4x all'8x è ininfluente nel caso sm2.0 dando addirittura punteggio insignificativamente diverso, mentre cmq proporzionato nello sm3.0

af 2x

3700
4983

qui invece nessuna differenza passando da 2x a 4x per sm3.0 mentre invece un calo vistoso passando dal 2x al 4x...


insospettito da questo vistoso calo nei test sm2.0 che nn è presente negli sm3.0 ho iniziato a pensare a quale impostazione dvr potesse essere

quindi ho ripeturo 3 test con l'af a 8x con varie combinazioni di catalist IA.

1) catalist IA su advance e AF 8x

3380
4745

2) catalist IA su standard AF 8x

3385
4683

sembra che si siano perdite disabilitando il controllo AF del CCCIA

3) AF 8x catalist IA disabilitato

2779 (valore anche + basso del 16x)
4621 (nessuna variazione di sorta)

a questo punto è ovvio che non è colpa del CCC IA anzi ovviamente disabilitandolo si perdono tutte le ottimizzazioni del caso.

a questo punto vedo cosa altro ho di attivo e mi cade l'occhio sul trasparent AA che nonostante avessi disabilitato l'AA da CCC lui resta sbarrato.
disabilitato anche lui

4) AF 8x catalist IA advance

3361
4723

in perfetta linea con il test primo test in alto.
quindi non saprei il perchè di questo calo netto gia attivando il 2x sugli sm2.0 test.

Ora mi è venuta in idea.
Fate un 3dmark05 senza AA e con AF 16X e vedete la differenza di punteggio facendo prima 1 test con e senza AF forzando dal pannello del 3dmark i ms2.0b e poi ripetetete il test impostando i ms3.0.
e vediamo se il delta perso tra i 2 test è comparabile.
in caso non lo fosse cioè si perde di +im punteggio con lo sm2.0 credo siano alcune ottimizzazioni del filtri AF pensate appositamente per lo sm3.0 che non entrano in funzione nelle cose sm2.0

Iantikas
17-10-2007, 16:23
secondo me dipende proprio da come è programmato il 3dmark e dal rapporto ALU:TEX presente in ognuno dei test...(certo è ke in ogni caso sembra sempre un pò troppo elevata come differenza...quasi quasi negli sm2.0 incide quanto l'AA :D )

...cmq nei gioki nn mi pare si presenti lo stesso forte calo anke se devo ancora fare prove in + gioki (in LP x es. la differenza è trascurabile passando da 40.8 a 39.1)...


...ciao

-Feanor-
17-10-2007, 16:23
quando arriva in firma ?

quando arriva a casa...:ciapet:...:D

Catan
17-10-2007, 16:27
secondo me dipende proprio da come è programmato il 3dmark e dal rapporto ALU:TEX presente in ognuno dei test...(certo è ke in ogni caso sembra sempre un pò troppo elevata come differenza...quasi quasi negli sm2.0 incide quanto l'AA :D )

...cmq nei gioki nn mi pare si presenti lo stesso forte calo anke se devo ancora fare prove in + gioki (in LP x es. la differenza è trascurabile passando da 40.8 a 39.1)...


...ciao

ika parlando di tutt'altro ma la vga con il dissi la hai piazzata?
xè stavo facendo un pensierino hr03 e volevo sapere se lo avevi in vendita extra vga

DVD2005
17-10-2007, 16:29
quando arriva a casa...:ciapet:...:D

:asd:

immagino lo aspetti a braccia aperte.

Iantikas
17-10-2007, 16:47
ika parlando di tutt'altro ma la vga con il dissi la hai piazzata?
xè stavo facendo un pensierino hr03 e volevo sapere se lo avevi in vendita extra vga

si li ho piazzati anke separati ma nel creare il 3d ho dato precedenza al blocco (pensando ke essendo compatibile solo con R600 poi mi sarebbe rimasto sul groppone)...


...mi sa ke anke se ti metti in coda x HR03 c son poke probabilità :( ...ciao

Chicco85
17-10-2007, 16:55
si li ho piazzati anke separati ma nel creare il 3d ho dato precedenza al blocco (pensando ke essendo compatibile solo con R600 poi mi sarebbe rimasto sul groppone)...


...mi sa ke anke se ti metti in coda x HR03 c son poke probabilità :( ...ciao

Già, ci sono poche probabilità anche per me... :)

-Feanor-
17-10-2007, 17:10
:asd:

immagino lo aspetti a braccia aperte.

:D....puoi scommetterci....finalmente potro giocare anche io...:D :D :D

fukka75
17-10-2007, 17:32
...ciao

Non dovresti cambiare qualcosina in firma? :read:

-Feanor-
17-10-2007, 17:42
Non dovresti cambiare qualcosina in firma? :read:

:asd: :asd: :asd: :read:

Catan
17-10-2007, 18:04
allora ragazzi riguardo invece alla prova che ho voluto fare con il 3dmark05

vs 2.0a
ps 2.0b
no AF 18752
AF 16x 15662

vs e ps 3.0
no AF 18630(curiosa sta cosa 150pnt in meno^^)
AF 16x 15806 (qui invece sono ben 250+ in +)

Iantikas
17-10-2007, 18:11
Non dovresti cambiare qualcosina in firma? :read:


fatto :cool: :D ...


...cmq mi mankerà la XT...testarla con i gioki ke verranno, osservarne in prima persona l'evoluzione nel tempo...rimarrà cmq (nei miei ricordi) una bella GPU, nn occuperà i posti d'onore ma un posticino in "prima fila" le spetta sicuramente...peccato ke il distacco sia stato inevitabile...


...ciao

p.s.: cmq penso ke continuerò a seguire assiduamente questo 3d...oltre ke x seguire l'andamento della skeda anke xkè è uno dei + "movimentati" e insomma qui nn c s'annoia :D (al confronto quello della Ultra pare un mortorio :asd: )

DVD2005
17-10-2007, 18:18
fatto :cool: :D ...


...cmq mi mankerà la XT...testarla con i gioki ke verranno, osservarne in prima persona l'evoluzione nel tempo...rimarrà cmq (nei miei ricordi) una bella GPU, nn occuperà i posti d'onore ma un posticino in "prima fila" le spetta sicuramente...peccato ke il distacco sia stato inevitabile...


...ciao

p.s.: cmq penso ke continuerò a seguire assiduamente questo 3d...oltre ke x seguire l'andamento della skeda anke xkè è uno dei + "movimentati" e insomma qui nn c s'annoia :D (al confronto quello della Ultra pare un mortorio :asd: )


siete in 4 gatti (fortunati) ad averla :sofico:

Iantikas
17-10-2007, 18:21
allora ragazzi riguardo invece alla prova che ho voluto fare con il 3dmark05

vs 2.0a
ps 2.0b
no AF 18752
AF 16x 15662

vs e ps 3.0
no AF 18630(curiosa sta cosa 150pnt in meno^^)
AF 16x 15806 (qui invece sono ben 250+ in +)

stranissimo il calo senza AF con sm3.0 (e il poco guadagno con AF...x es. in Far Cry attivando sm3.0 il framerate decolla a parità d settaggio)...certo ke se ti soffermi ad analizzare i vari risultati ti sembrano sempre d + senza senso...ciao

-Feanor-
17-10-2007, 18:29
siete in 4 gatti (fortunati) ad averla :sofico:

:asd:....infatti...
cmq ci conto su tuoi futuri post Iantikas.....;)

halduemilauno
17-10-2007, 18:51
fatto :cool: :D ...


...cmq mi mankerà la XT...testarla con i gioki ke verranno, osservarne in prima persona l'evoluzione nel tempo...rimarrà cmq (nei miei ricordi) una bella GPU, nn occuperà i posti d'onore ma un posticino in "prima fila" le spetta sicuramente...peccato ke il distacco sia stato inevitabile...


...ciao

p.s.: cmq penso ke continuerò a seguire assiduamente questo 3d...oltre ke x seguire l'andamento della skeda anke xkè è uno dei + "movimentati" e insomma qui nn c s'annoia :D (al confronto quello della Ultra pare un mortorio :asd: )

beh li siam tutti d'accordo.

pasqualesteve
17-10-2007, 19:17
salve a tutti mi sono appena fatto il pc in firma e visto che ho sempre avuto nvidia, vorrei sapere quali driver e applicazioni bisogna installare?:help:

SamCapone
17-10-2007, 19:23
salve a tutti mi sono appena fatto il pc in firma e visto che ho sempre avuto nvidia, vorrei sapere quali driver e applicazioni bisogna installare?:help:

Ciao pasqualesteve.
Ultimo possibile :cool:
Vai su http://ati.amd.com/support/driver.html .

P.S benvenuti nella famiglia .

halduemilauno
17-10-2007, 19:31
Ciao pasqualesteve.
Ultimo possibile :cool:
Vai su http://ati.amd.com/support/driver.html .

P.S benvenuti nella famiglia .


detto da un Capone è un tantinello inquietante.

;)

Mister Tarpone
17-10-2007, 19:45
detto da un Capone è un tantinello inquietante.

;)

:sbonk: :sbonk: :sbonk:

e 2.... :asd:

SamCapone
17-10-2007, 19:46
Bella da vero questa hi hi !!:yeah:

La Famiglia

Mister Tarpone e 2 cosa ? :-)

Iantikas
17-10-2007, 20:16
raga ecco qualke altro test con la xt...gli utlmi prima d pensionarla...il fur rendering del bench oZone3D

1680x1050 no AA freq def.

http://img509.imageshack.us/img509/660/ozone3d1680x1050noaafreqp7.th.jpg (http://img509.imageshack.us/my.php?image=ozone3d1680x1050noaafreqp7.jpg)

1680x1050 no AA oc

http://img521.imageshack.us/img521/3483/ozone3d1680x1050noaaocbc4.th.jpg (http://img521.imageshack.us/my.php?image=ozone3d1680x1050noaaocbc4.jpg)

1680x1050 4xAA freq def.

http://img509.imageshack.us/img509/9498/ozone3d1680x10504xaafreof1.th.jpg (http://img509.imageshack.us/my.php?image=ozone3d1680x10504xaafreof1.jpg)

1680x1050 4xAA oc

http://img509.imageshack.us/img509/1841/ozone3d1680x10504xaaocet2.th.jpg (http://img509.imageshack.us/my.php?image=ozone3d1680x10504xaaocet2.jpg)

1680x1050 8xAA oc

http://img521.imageshack.us/img521/1632/ozone3d1680x10508xaaocfw9.th.jpg (http://img521.imageshack.us/my.php?image=ozone3d1680x10508xaaocfw9.jpg)


...purtroppo l'8xAA a freq. def l'ho perso x la strada :stordita: cmq era "milleseicentoequalkecosa"...

...la cosa + interessate d questo bench cmq è quanto mette sotto stress la vga...a livelli irraggiungibili da qualsiasi altro test/gioco...me ne accorgo dal valore ke segna il monitoring alla voce "voltage regulator current"...in oc nei gioki e al 3dmark sta sui 66/68A...su gioki particolarmente pesanti tipo bioshock o stalker si assesta sui 71/73A...con atitool sui 73/75A...

...ma tutti questi sono niente rispetto a questo bench ke a def la porta a 77A e in oc arriva addirittura a 90A :eek: ...perfetto x testare la stabilità della skeda ;) ...ciao

MonsterMash
17-10-2007, 21:52
Scusate una domanda, e perdonate l'ignoranza, ma i mosfet di alimentazione sono questi:

http://img149.imageshack.us/img149/1769/grossiow5.th.jpg (http://img149.imageshack.us/my.php?image=grossiow5.jpg)

O questi:

http://img149.imageshack.us/img149/8034/piccolikn7.th.jpg (http://img149.imageshack.us/my.php?image=piccolikn7.jpg)

Perchè io pensavo fossero quelli più grossi (prima immagine), ma guardando bene la placca dell'alimentatore originale ha il pad in corrispondenza di quelli più piccolini indicati nella seconda immagine.

Grazie a tutti.

Ciao

Chicco85
17-10-2007, 22:14
Sono quelli piccoli. ;)

MonsterMash
17-10-2007, 22:50
Sono quelli piccoli. ;)

Grazie tante.
Ma che temperature avete a riposo e in full sui mosfet? Perchè io con tutti i dissipatorini montati e una ventola che ci spara aria sopra, in idle sto sopra i 45 °C, e in full intorno ai 70.

Scrambler77
17-10-2007, 23:57
fatto :cool: :D ...


...cmq mi mankerà la XT...testarla con i gioki ke verranno, osservarne in prima persona l'evoluzione nel tempo...rimarrà cmq (nei miei ricordi) una bella GPU, nn occuperà i posti d'onore ma un posticino in "prima fila" le spetta sicuramente...peccato ke il distacco sia stato inevitabile...


...ciao

p.s.: cmq penso ke continuerò a seguire assiduamente questo 3d...oltre ke x seguire l'andamento della skeda anke xkè è uno dei + "movimentati" e insomma qui nn c s'annoia :D (al confronto quello della Ultra pare un mortorio :asd: )

Benvenuto nel club... ;)

P.S: ti interessa un hr-03plus di 4 mesi di vita? :P

beh li siam tutti d'accordo.

:asd:

Iantikas
18-10-2007, 00:14
Grazie tante.
Ma che temperature avete a riposo e in full sui mosfet? Perchè io con tutti i dissipatorini montati e una ventola che ci spara aria sopra, in idle sto sopra i 45 °C, e in full intorno ai 70.


son normali come temp...ciao

Iantikas
18-10-2007, 00:17
Benvenuto nel club... ;)

P.S: ti interessa un hr-03plus di 4 mesi di vita? :P



:asd:

grazie x il benvenuto ;) ...


...cmq la Ultra penso di lascialra col dissi originale..anke xkè l'HR03 x R600 nn lo presi tanto x l'oc o x abbassare le temp ke già col dissi stock erano accettabili ma x diminuire drasticamente il rumore in full load mantenendo cmq buone temp...e a quanto pare il dissi stock della Ultra questo dovrebbe garantirmelo...cmq nn si sa mai, magari quando la provo x benino cambio idea, in tal caso ti farò sapere ;) ...ciao

FreeMan
18-10-2007, 00:27
Scrambler77 sospeso 5gg per post mercatino

>bYeZ<

mtk
18-10-2007, 07:17
:eek:

nico88desmo
18-10-2007, 09:38
Nuova rece DX10

http://www.tomshw.it/graphic.php?guide=20071009

Non so se i risultati rispecchino la verità...mi sembra troppo staccata la HD2900

Catan
18-10-2007, 10:20
Nuova rece DX10

http://www.tomshw.it/graphic.php?guide=20071009

Non so se i risultati rispecchino la verità...mi sembra troppo staccata la HD2900

i test di tom.... ci sono solo emoticon che valgono il commento

:D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D :D

Catan
18-10-2007, 10:23
grazie x il benvenuto ;) ...


...cmq la Ultra penso di lascialra col dissi originale..anke xkè l'HR03 x R600 nn lo presi tanto x l'oc o x abbassare le temp ke già col dissi stock erano accettabili ma x diminuire drasticamente il rumore in full load mantenendo cmq buone temp...e a quanto pare il dissi stock della Ultra questo dovrebbe garantirmelo...cmq nn si sa mai, magari quando la provo x benino cambio idea, in tal caso ti farò sapere ;) ...ciao

ian mi togli dei dubbi sul hr03...
tu come lo hai montato con heatpipe che avvolgono la scheda e quindi blocco di sissipazione e ventola in alto verso la cpu, oppure con in maniera classica con dissipatore rivolto verso il basso?
le ram come le hai raffreddate invece?
io ho dei dissi di uno zalman che mi avanzano potrei mettere quelli che ne dici?

Ps gia iniziati i test sulla ultra?

ninja970
18-10-2007, 10:40
La cosa che avevo notato ieri è stata ripresa anche da hwupgrade
http://www.hwupgrade.it/news/skvideo/radeon-hd-3800-questo-il-nome-di-rv670_22950.html

Wisky85
18-10-2007, 11:11
Ciao Ragazzi, Grazie mille per le risposte, sto cercando in giro un po di info sulle configurazioni ottimali, intanto se ne avete voi fatemi sapere:p Grazie ancora!

Evangelion01
18-10-2007, 11:41
Ciao Ragazzi, Grazie mille per le risposte, sto cercando in giro un po di info sulle configurazioni ottimali, intanto se ne avete voi fatemi sapere:p Grazie ancora!

wisky85, hai la firma irregolare, editala... ;)