View Full Version : [Thread Ufficiale] AMD Radeon™ HD 2900 XT
Beh innanzitutto c'è una bella differenza tra CPU e GPU. ;)
Cmq tutto sta a capire "quanto" inficierà sulle prestazioni... Perdere 2-3fps per la tessellation a fronte di un dispositivo hw dedicato non la vedo così drammatica.
Sempre a quanto ho letto in giro, la tessellation non è una feature che assorbe chissà quanta potenza di calcolo di una GPU. Il vero problema è fare il rendering dei poligoni "tessellati"... ma questo poi diventa un problema comune a tutte le architetture.
nn credo proprio che saranno 2 o 3 fps, anzi se fossero sfruttate BENE io gli aggiungerei uno zero
La tua fonte qual'è?
hai presente XNA? :rolleyes:
nn credo proprio che saranno 2 o 3 fps, anzi se fossero sfruttate BENE io gli aggiungerei uno zero
se mi pare un po eccessivo o no? addirittura 30fps ma dai:rolleyes:
nel frattempo avoglia a gustarci gioconi:Crisys.Bioshok.Quake Wars.Unreal3.Alan Wake :D
Alan Wake potrebbe utilizzare la Tessellation Unit già su Xbox360... :boh:
TecnoWorld8
21-06-2007, 14:06
dipende; tra l'altro, se la TU ottimizza l'uso della memoria, potrebbe superare l'eventuale limite dei 512MB di memoria per i giochi in uscita tra un annetto...
dipende; tra l'altro, se la TU ottimizza l'uso della memoria, potrebbe superare l'eventuale limite dei 512MB di memoria per i giochi in uscita tra un annetto...
la TU fa in modo che il driver non debba passare tutti i vertici alla gpu, ma solo la bozza in lowpoly e una specie di "mappa" con la quale poi la TU ricostruisce i vertici mancanti, quindi si, se c'è tanta tanta geometria si ha un notevole risparmio di banda dalla ram alla gpu... vedi la squintalata di poligoni che si vedono nel demo di ruby e la discreta velocità con cui gira....
se mi pare un po eccessivo o no? addirittura 30fps ma dai:rolleyes:
si be allora una trentina in più effettivamente è esagerato, però se pensi un gioco che innanzitutto è ottimizzato, quindi da ottimi risultati sia su G80 che su R600, ma in più sa sfruttare i 320 SP, MSAA e le TU, a questo punto si vedrebbe una differenza abbastanza marcata, e non credo che sia nell'ordine dei 10fps, ma un po' di più. no?
si be allora una trentina in più effettivamente è esagerato, però se pensi un gioco che innanzitutto è ottimizzato, quindi da ottimi risultati sia su G80 che su R600, ma in più sa sfruttare i 320 SP, MSAA e le TU, a questo punto si vedrebbe una differenza abbastanza marcata, e non credo che sia nell'ordine dei 10fps, ma un po' di più. no?
come ben sai pero in realta i 320 Shader della 2900 non si possono confrontare con i 128 della GTX:rolleyes:
TecnoWorld8
21-06-2007, 14:49
rispetto al passato, è molto più difficile confrontare queste architetture basandosi su "dati sintetici". un tempo bastava usare valori quali fill-rate, triangoli/sec e così via...
ora, ogni GPU è un'architettura a se stante...hanno tutte lo stesso scopo (renderizzare giochi 3D) e piattaforme comuni (DirectX, OpenGL), ma "internamente", a monte, fanno il loro lavoro in modo totalmente diverso.
è chiaro che se i programmatori sviluppassero giochi tenendo in considerazione un'architettura specifica, riuscirebbero a tirar fuori tanti FPS in più; ricordate il glide per le 3DFX? esistesse una cosa del genere per le schede attuali, cioè delle patch specifiche che utilizzano TUTTE le loro features esclusive, beh, credo che per esempio Colin Dirt girerebbe a 60fps sulla 2900XT.
Purtroppo...per motivi ovvi, gli sviluppatori non fanno versioni specifiche...e quindi non ci resta che sperare nell'ottimizzazione dei drivers, che costituiscono appunto il ponte tra DirectX e architettura delle schede...
Scrambler77
21-06-2007, 14:49
hai presente XNA? :rolleyes:
Si, ma dove sta scritto che tutti i titoli Xbox360 fanno uso di tessellation? :confused: :mbe:
Scrambler77
21-06-2007, 14:55
[CUT] ricordate il glide per le 3DFX? esistesse una cosa del genere per le schede attuali, cioè delle patch specifiche che utilizzano TUTTE le loro features esclusive, beh, credo che per esempio Colin Dirt girerebbe a 60fps sulla 2900XT.
Come non quotarti... ma d'altro canto questo è ciò che succede in regime di stretta concorrenza come quello attuale.
All'epoca c'era una certa stagnazione del mercato, le architetture erano poche e 3dfx era l'unica a decidere la direzione da intraprendere.
Free Gordon
21-06-2007, 15:07
credo che per esempio Colin Dirt girerebbe a 60fps sulla 2900XT.
Beh, se magari la 2900XT si degnasse pure di girare a freq 3D, si potrebbe dire qualcosa a riguardo :D (scherzo ovviamente).
Cmq sono molto curioso di vedere come girerà Colin (che per quanto riguarda i racing, è un netto passo avanti nella tecnologia grafica) quando i driver riconosceranno il gioco.
davide155
21-06-2007, 15:08
.io comincerei a guardare al futuro porting di giochi da x360 a pc come Gears Of War, dove vedremo si se la nuova architettura di R600 si avvantaggerà delle caratteristiche in discussione.
Si allora cambia il nome r600 con r700 visto che gow su pc non uscirà prima di fine 2008 :)
TecnoWorld8
21-06-2007, 15:11
Beh, se magari la 2900XT si degnasse pure di girare a freq 3D, si potrebbe dire qualcosa a riguardo :D (scherzo ovviamente).
ma...non si può impostare manualmente la frequenza con un tool di overclock? giusto per vedere come si comporta la scheda...
Scrambler77
21-06-2007, 17:28
Si allora cambia il nome r600 con r700 visto che gow su pc non uscirà prima di fine 2008 :)
:ronf:
ma...non si può impostare manualmente la frequenza con un tool di overclock? giusto per vedere come si comporta la scheda...
Non s'è mica capito... Tutti a fare OC della 2900XT ma nessuno che riesce a fissare le frequenze a default? :asd:
davide155
21-06-2007, 17:31
:ronf:
Prima che esca gow ci sarà anche r780 per me :O
come ben sai pero in realta i 320 Shader della 2900 non si possono confrontare con i 128 della GTX:rolleyes:
anche questo è vero, ma cmq il mio esempio si poteva applicare a un game che fosse apposta ottimizzato per r600. infatti (secondo me) proprio per una questione commerciale nel futuro avremo ati che crea un tipo di architettura e nvidia che ne fa un altra, quindi ovviamente le applicazioni che verranno, dovranno essere scritte (nn interamente) in parte per il tipo di architettura in modo da avere una massima ottimizazione, seno si avra una situazione come oggi dove ulcuni game vanno molto bene su un certo tipo di GPU e altri su un altro tipo. e queto sarà ancor di più marcato se le S H adotteranno un solo tipo di motore grafico, un esempio potrebbe essere l' Unreal Engine 3. no?
3DMark79
21-06-2007, 21:19
anche questo è vero, ma cmq il mio esempio si poteva applicare a un game che fosse apposta ottimizzato per r600. infatti (secondo me) proprio per una questione commerciale nel futuro avremo ati che crea un tipo di architettura e nvidia che ne fa un altra, quindi ovviamente le applicazioni che verranno, dovranno essere scritte (nn interamente) in parte per il tipo di architettura in modo da avere una massima ottimizazione, seno si avra una situazione come oggi dove ulcuni game vanno molto bene su un certo tipo di GPU e altri su un altro tipo. e queto sarà ancor di più marcato se le S H adotteranno un solo tipo di motore grafico, un esempio potrebbe essere l' Unreal Engine 3. no?
Quoto!Non potevano utilizzare la medesima architettura per facilitare anche il lavoro ai programmatori!Così non c'era alcun problema,mi sembra ti tornare ai tempi quando le Nvidia andavano meglio in Open-gl e Ati in Direct-X.:muro:
Quoto!Non potevano utilizzare la medesima architettura per facilitare anche il lavoro ai programmatori!Così non c'era alcun problema,mi sembra ti tornare ai tempi quando le Nvidia andavano meglio in Open-gl e Ati in Direct-X.:muro:
su questo argomento io credo una cosa, però... cmq è la specialità della corporation di incasinare le cose:D , seno se tutto fosse uguale nn ci sarebbe nemmeno concorrenza
3DMark79
21-06-2007, 22:36
su questo argomento io credo una cosa, però... cmq è la specialità della corporation di incasinare le cose:D , seno se tutto fosse uguale nn ci sarebbe nemmeno concorrenza
Infatti, devono cambiare entrambi le progettazioni così non hanno alcun problema a vendere.:mad: Se erano identiche era semplicissimo...solo una questione di numeri.:D
Quoto!Non potevano utilizzare la medesima architettura per facilitare anche il lavoro ai programmatori!Così non c'era alcun problema,mi sembra ti tornare ai tempi quando le Nvidia andavano meglio in Open-gl e Ati in Direct-X.:muro:
x la concorrenza, altrimenti avremo skede video identike e ke senso avrebbe? quindi ognuno implementa la propia tecnologia e non si sa mai quale sia la migliore
http://www.hwupgrade.it/news/skvideo/radoen-hd-2900-xt-da-1-gbyte-anche-per-sapphire_21675.html
Anche Sapphire inizierà la commercializzazione delle schede video Radeon HD 2900 XT con 1 Gbyte di memoria video, stando alle informazioni anticipate dal sito Clubic a questo indirizzo.
La scheda verrà proposta a 499 Euro incluse tasse nel mercato francese, pertanto possiamo presumere che anche in Italia il prezzo sarà allineato a questa cifra.
Le specifiche tecniche di questa soluzione prevedono GPU R600 con frequenza di clock di 740 MHz, quindi la stessa delle versioni con 512 Mbytes di memoria. Per la memoria video, invece, la frequenza di funzionamento è quella di 1 GHz (2 GHz effettivi) contro gli 825 MHz (1.650 MHz effettivi) delle soluzioni con 512 Mbytes di memoria video e moduli GDDR3.
TecnoWorld8
22-06-2007, 11:27
http://www.hwupgrade.it/news/skvideo/radoen-hd-2900-xt-da-1-gbyte-anche-per-sapphire_21675.html
Anche Sapphire inizierà la commercializzazione delle schede video Radeon HD 2900 XT con 1 Gbyte di memoria video, stando alle informazioni anticipate dal sito Clubic a questo indirizzo.
La scheda verrà proposta a 499 Euro incluse tasse nel mercato francese, pertanto possiamo presumere che anche in Italia il prezzo sarà allineato a questa cifra.
Le specifiche tecniche di questa soluzione prevedono GPU R600 con frequenza di clock di 740 MHz, quindi la stessa delle versioni con 512 Mbytes di memoria. Per la memoria video, invece, la frequenza di funzionamento è quella di 1 GHz (2 GHz effettivi) contro gli 825 MHz (1.650 MHz effettivi) delle soluzioni con 512 Mbytes di memoria video e moduli GDDR3.
secondo me non ha senso pagare 150€ in più per questa scheda...
nico88desmo
22-06-2007, 11:36
secondo me non ha senso pagare 150€ in più per questa scheda...
concordo :O
3DMark79
22-06-2007, 11:49
x la concorrenza, altrimenti avremo skede video identike e ke senso avrebbe? quindi ognuno implementa la propia tecnologia e non si sa mai quale sia la migliore
Certamente, ma ovviamente a svantaggio nostro.:fiufiu:
secondo me non ha senso pagare 150€ in più per questa scheda...
concordo :O
Straquoto!Imho 50 Euro erano più che sufficienti!:asd:
secondo me non ha senso pagare 150€ in più per questa scheda...
per dire la verità me l'ho aspettavo un prezzo simile...
TecnoWorld8
22-06-2007, 11:56
Straquoto!Imho 50 Euro erano più che sufficienti!:asd:
senza contare tra l'altro che a quella cifra costerà persino più di quanto si può pagare una GTX, e non credo che la differenza di memoria legittimi ciò...
senza contare tra l'altro che a quella cifra costerà persino più di quanto si può pagare una GTX, e non credo che la differenza di memoria legittimi ciò...
il problema è che la ram video ad alte prestazioni costano parecchio,quindi quel prezzo era più o meno prevedibile,che poi sia leggitimo o meno rispetto alla gtx questo è un'altro paio di maniche..
3DMark79
22-06-2007, 12:16
E' cmq quasi impossibile che scendevano il prezzo della 512 e vendere quella da 1gb allo stesso prezzo della 512 se parliamo rapportata alla gtx.
Sono proprio curioso del suo comportamento ai test e chissà quante hd2900 512mb avranno venduto in questo frangente.:rolleyes:
Free Gordon
22-06-2007, 12:37
secondo me non ha senso pagare 150€ in più per questa scheda...
proprio no... considerando che la freq di clock è identica alla XT 512...
avessero fatto uscire un R600 a 850 capirei..ma a 740mhz le prestazioni saranno praticamente identiche nei giochi attuali (e anche in molti futuri).
gianni1879
22-06-2007, 12:50
E' cmq quasi impossibile che scendevano il prezzo della 512 e vendere quella da 1gb allo stesso prezzo della 512 se parliamo rapportata alla gtx.
Sono proprio curioso del suo comportamento ai test e chissà quante hd2900 512mb avranno venduto in questo frangente.:rolleyes:
effettivamente si sa nulla sulle vendite di questa vga??
secondo me non ha senso pagare 150€ in più per questa scheda...
ma guardate oggettivamente 150E in + è solo il costo della memoria ram se si guarda la differenza di prezzo tra una 8800gts da 320mb e una da 640 sono circa 80E per 320mb in +.
qui sono 512mb in + quindi credo che il prezzo di circa 120-150E in + sia giustificato dal materiale che uno compra.
ovviamente non credo sia un acquisto cosi consigliato anche xè 1gb di ram serve solo a grandissime risoluzioni dove in combinazione con la banda maggiore delle gddr4 serve a portare quelle migliorie per rendere il gioco al top anche ad altissime risoluzioni.
ovviamente sarebbe interessanti magari propio da sapphire che prendetasse tra 1 o 2 mesi una 2900 da 512mb magari con gddr4 cloccate lo stesso a 2000mhz.
non sarebbe male la differenza di prezzo tra gddr4 e gddr3 è minimale quindi magari con un 20E in + ci si porta a casa un pò + di banda anche se con un bus da 512mb non è mai stata indicata come punto debole della vga
proprio no... considerando che la freq di clock è identica alla XT 512...
avessero fatto uscire un R600 a 850 capirei..ma a 740mhz le prestazioni saranno praticamente identiche nei giochi attuali (e anche in molti futuri).
si noteranno invece differenze nei giochi alle alte risoluzioni dove ora si vedeva la xt 512 alle costole della gtx, che rallentava andando su di risoluzione: tolto questa piccola differenza vedremo una maggior stabilità con le risoluzioni più elevate....
davide155
22-06-2007, 13:24
si noteranno invece differenze nei giochi alle alte risoluzioni dove ora si vedeva la xt 512 alle costole della gtx, che rallentava andando su di risoluzione: tolto questa piccola differenza vedremo una maggior stabilità con le risoluzioni più elevate....
Si ma si parla di risoluzioni sopra i 2000x1000 ;)
ale0bello0pr
22-06-2007, 13:25
piccolo OT...
riaprite il thread di Crysissssssss......ci sono nuovi dettagli e gia' la copertina del giocoooo.... :sbavvv:
FINE OT....:asd:
P.S.
V.M. 18 se fa la fine di Manhunt 2:asd:... divento un terrorista..
3DMark79
22-06-2007, 13:40
ma guardate oggettivamente 150E in + è solo il costo della memoria ram se si guarda la differenza di prezzo tra una 8800gts da 320mb e una da 640 sono circa 80E per 320mb in +.
qui sono 512mb in + quindi credo che il prezzo di circa 120-150E in + sia giustificato dal materiale che uno compra.
ovviamente non credo sia un acquisto cosi consigliato anche xè 1gb di ram serve solo a grandissime risoluzioni dove in combinazione con la banda maggiore delle gddr4 serve a portare quelle migliorie per rendere il gioco al top anche ad altissime risoluzioni.
ovviamente sarebbe interessanti magari propio da sapphire che prendetasse tra 1 o 2 mesi una 2900 da 512mb magari con gddr4 cloccate lo stesso a 2000mhz.
non sarebbe male la differenza di prezzo tra gddr4 e gddr3 è minimale quindi magari con un 20E in + ci si porta a casa un pò + di banda anche se con un bus da 512mb non è mai stata indicata come punto debole della vga
Una cosa c'è da valutare le DDR4 avranno timing molto più alti delle DDR3 dunque anche se a frequenze più alte delle ddr3 imho non penso si possa avere dei netti miglioramenti come clokkare una ddr3 a 1000mhz con timing più bassi (chip permettendo) "discordo a parte per la RAM in più"
TecnoWorld8
22-06-2007, 14:04
ma guardate oggettivamente 150E in + è solo il costo della memoria ram se si guarda la differenza di prezzo tra una 8800gts da 320mb e una da 640 sono circa 80E per 320mb in +.
qui sono 512mb in + quindi credo che il prezzo di circa 120-150E in + sia giustificato dal materiale che uno compra.
ovviamente non credo sia un acquisto cosi consigliato anche xè 1gb di ram serve solo a grandissime risoluzioni dove in combinazione con la banda maggiore delle gddr4 serve a portare quelle migliorie per rendere il gioco al top anche ad altissime risoluzioni.
ovviamente sarebbe interessanti magari propio da sapphire che prendetasse tra 1 o 2 mesi una 2900 da 512mb magari con gddr4 cloccate lo stesso a 2000mhz.
non sarebbe male la differenza di prezzo tra gddr4 e gddr3 è minimale quindi magari con un 20E in + ci si porta a casa un pò + di banda anche se con un bus da 512mb non è mai stata indicata come punto debole della vga
il problema non è tanto il fatto che 150€ siano motivati o meno dall'aumento della memoria; come sempre, la questione sta invece nel panorama in cui si colloca e nel rapporto prezzo/prestazioni tra schede diverse. AMD/ATi non ha originariamente messo in vendita la versione ad 1GB, proprio perchè - secondo me - il prezzo non sarebbe stato competitivo, come prestazioni, con le GTX. Queste ultime avranno pure 256MB di memoria in meno, ma probabilmente rimarranno superiori come prestazioni, dunque a parità di prezzo (e maggior ragione a prezzo inferiore), saranno preferibili.
Scrambler77
22-06-2007, 14:27
A quanto dite, a parità di risoluzione non si avranno incrementi significativi di prestazioni se non oltre i 1920x1200...
Ergo, non vedo perchè debba essere sensato comprarla. Poi se avesse avuto lo stesso prezzo della 512, immaginate l'incazzatura di chi l'ha appena comprata (come la maggior parte di voi)!
Mmmah... ATi proprio non la sto capendo...
Sono proprio curioso del suo comportamento ai test e chissà quante hd2900 512mb avranno venduto in questo frangente.:rolleyes:
effettivamente si sa nulla sulle vendite di questa vga??
Stessa domanda che mi ero già posto io qualche giorno fa: M4R1|< aveva detto "circa 3 milioni di persone li stanno aspettando (driver nuovi)", ecco, vorrei sapere se ha sparato un numero a caso, o ha letto le cifre da qualche parte; se ci sei, batti un colpo :)
A quanto dite, a parità di risoluzione non si avranno incrementi significativi di prestazioni se non oltre i 1920x1200...
Ergo, non vedo perchè debba essere sensato comprarla. Poi se avesse avuto lo stesso prezzo della 512, immaginate l'incazzatura di chi l'ha appena comprata (come la maggior parte di voi)!
Mmmah... ATi proprio non la sto capendo...
:doh: :mc:
Franx1508
22-06-2007, 15:57
per dire la verità me l'ho aspettavo un prezzo simile...
impara l'italiano.
impara l'italiano.
tu invece impara a fare internventi più costruttivi no come questo assolutamente inutile per la comunità...:rolleyes:
3DMark79
22-06-2007, 16:40
impara l'italiano.
tu invece impara a fare internventi più costruttivi no come questo assolutamente inutile per la comunità...:rolleyes:
Ragazzi ma e mai possibile che si debba sempre litigare anche per una minima caxxata!:doh:
Imho penso che certe situazioni ce le cerchiamo (rif. a Franx)!
Imparate a convivere serenamente che ci sono cose più brutte nella vita e che cxxxo!:mad:
PS:Vi parlo da amico.
fine OT/flame
tecnicamente la netiquette consiglierebbe di non sottolineare gli errori di scrittura altrui.. è anche vero che con maggiore attenzione questi si potrebbero evitare
cmq direi che su una cosa del genere non ci sia da spendere/sprecare neanche una parola di + ;)
>bYeZ<
sembra quasi che gli piaccia essere sospesi :muro:
Garagolo
22-06-2007, 19:32
infatti....:doh:
pierluigi86
23-06-2007, 08:45
sembra quasi che gli piaccia essere sospesi :muro:
è meglio non commentare le sospensioni degli altri
ps oggi ho imparato un nuovo termine "netiquette", che figata...
Stessa domanda che mi ero già posto io qualche giorno fa: M4R1|< aveva detto "circa 3 milioni di persone li stanno aspettando (driver nuovi)", ecco, vorrei sapere se ha sparato un numero a caso, o ha letto le cifre da qualche parte; se ci sei, batti un colpo :)
Nessuno che lo sappia? M4R1|< ci sei?
Nessuno che lo sappia? M4R1|< ci sei?
a naso mi sembrano molti.
Secondo me prima della seconda metà di luglio, quando presenteranno i risultati del Q2 2007 e faranno il technology analyst day, sarà difficile sapere cifre certe sulle vendite di R600, ricordando peraltro che di solito in questi eventi si citano le cifre di prodotti consegnati, non quelli effettivamente venduti (questo vale pure per nVidia): in certi casi i 2 dati possono differire di molto (vedi PS3).
The Joker 2k
23-06-2007, 13:17
ci sono giá dei test in giro, x avere un buon metro di giudizio confrontando le prestazioni con la serie X1XXX ? grazie.
gianni1879
23-06-2007, 14:36
vi consiglio quest'ottima recensione uscita in questi gg della hd2900xt
http://hwstation.net/recensioni/sapphire_radeon_hd_x2900xt_512mb/introduzione.html ;)
Io sono fiducioso...
Per fine giugno/inizio luglio la redazione di hwu si fa inviare una r600 1GB dal canada e fa una rece aggiornata con tutte le VGA DX10 e drivers aggiornati (si spera intanto nell'uscita dei 7.6 ufficiali WHQL)... :D
*+*kekko*+*
23-06-2007, 17:05
Io sono fiducioso...
Per fine giugno/inizio luglio la redazione di hwu si fa inviare una r600 1GB dal canada e fa una rece aggiornata con tutte le VGA DX10 e drivers aggiornati (si spera intanto nell'uscita dei 7.6 ufficiali WHQL)... :D
al max questa settimana;)
vi consiglio quest'ottima recensione uscita in questi gg della hd2900xt
http://hwstation.net/recensioni/sapphire_radeon_hd_x2900xt_512mb/introduzione.html ;)
quoto...
questa è una bella review, essenziale, fatta con driver aggiornati per TUTTI e senza tante menate... a risoluzioni umane e sotto xp per i giochi dx9 e sotto vista per i dx10....
e che dimostra come una scheda ancora sottosfruttata come la 2900xt resti il miglior compromesso "future proof" per rapporto prezzo/prestazioni...
gianni1879
23-06-2007, 17:22
quoto...
questa è una bella review, essenziale, fatta con driver aggiornati per TUTTI e senza tante menate... a risoluzioni umane e sotto xp per i giochi dx9 e sotto vista per i dx10....
e che dimostra come una scheda ancora sottosfruttata come la 2900xt resti il miglior compromesso "future proof" per rapporto prezzo/prestazioni...
esatto conosco oltretutto i recensori e mi fido cecamente ;)
testeranno anche loro la versione da 1gb appena gli arriverà, sperando che i nuovi catalyst escano :)
quoto...
questa è una bella review, essenziale, fatta con driver aggiornati per TUTTI e senza tante menate... a risoluzioni umane e sotto xp per i giochi dx9 e sotto vista per i dx10....
e che dimostra come una scheda ancora sottosfruttata come la 2900xt resti il miglior compromesso "future proof" per rapporto prezzo/prestazioni...
Più che altro mostrano la situazione attuale senza inficiarla con pareri personali, cosa che per R600 ho visto fare a pochi. Peccato non abbiano testato la scheda anche con altri giochi: FarCry, Serious Sam 2, Oblivion, l'ultimo Rainbow Six, TDU, STALKER, Supreme Commander, Carbon, GRAW, ecc...
Le prestazioni senza filtri sono in più di un caso superiori alla GTX, è l'AA via shaders che invece dà un colpo notevole alle prestazioni.
Ridimensionano pure la storia del rumore, come pensavo.
pierluigi86
23-06-2007, 20:03
forse amd dovrebbe diminuire il quantitativo di ram e dovrebbe portare il prezzo della 2900xt pari a quello della 8800 gts 320... perché molta gente si sta orientando verso quella scheda per il fatto che pochi hanno un monitor 1920x1200... quasi tutti hanno un monitor da 19" o 22".
Cmq il vero limite di questa scheda non sono i 2/3 frame/s ( impercettibile ad occhio umano) ma il consumo
Nessuno che lo sappia? M4R1|< ci sei?
no mi spiace, ho "sparato" un numero a caso. cmq nn credo che la cifra sia molto simile alla mia, anzi molto più bassa, anche xkè seno Ati-Amd avrebbero avuto uno spevento di vendite. cmq perdonami se nn ti ho risposto prima ma sono mancato da ieri sera ad adesso.
TecnoWorld8
23-06-2007, 20:27
forse amd dovrebbe diminuire il quantitativo di ram e dovrebbe portare il prezzo della 2900xt pari a quello della 8800 gts 320... perché molta gente si sta orientando verso quella scheda per il fatto che pochi hanno un monitor 1920x1200... quasi tutti hanno un monitor da 19" o 22".
Cmq il vero limite di questa scheda non sono i 2/3 frame/s ( impercettibile ad occhio umano) ma il consumo
d'accordissimo sul problema del consumo, davvero folle, che denota un progetto acerbo nonostante i tempi di sviluppo molto lunghi.
non sono d'accordo invece sul diminuire il quantitativo di memoria; il taglio inferiore a 512MB, differentemente da GTS, sarebbe 256MB (per il BUS usato), davvero troppo pochi per una scheda di questo livello. Credo che con quel quantitativo di memoria, questa scheda non riuscirebbe a tener testa ad una GTS 320 e probabilmente, nonostante la minor memoria, costerebbe di più.
davide155
23-06-2007, 20:49
Ragazzi oggi ho visto che la frael della quale un negozio risiede proprio sotto casa mia ha la 2900xt a 359€.
Un prezzo molto allettante.....non trovate?
Tenendo conto che quando uscirà crysis il prezzo sarà calato (spero).....mi sa che l'acquisto di questa scheda non me lo leva nessuno :D
Anche perchè se volessi una 8800gtx non mi entrerebbe nel case, visto che possiedo un ARMOR JR......
Quindi la mia decisione sarebbe un pò forzata, anche se con driver decenti questa scheda sarebbe stata sicuramente la mia futura scelta (ammesso che non esca qualche nuovo chip) :p
Cmq credo sia il prezzo più basso del web o sbaglio?
TecnoWorld8
23-06-2007, 22:19
continuo a sperare sinceramente che per l'uscita di crysis ci sia finalmente una vera high end nuova, dato che la GTX sarà sul mercato da ormai oltre un anno, per allora...
halduemilauno
24-06-2007, 07:05
continuo a sperare sinceramente che per l'uscita di crysis ci sia finalmente una vera high end nuova, dato che la GTX sarà sul mercato da ormai oltre un anno, per allora...
8.11.2006/14.09.2007. 10 mesi e sei giorni.
;)
bluefrog
24-06-2007, 09:39
8.11.2006/14.09.2007. 10 mesi e sei giorni.
;)
ore e minuti? :D
;)
esatto conosco oltretutto i recensori e mi fido cecamente ;)
testeranno anche loro la versione da 1gb appena gli arriverà, sperando che i nuovi catalyst escano :)
appena letta, davvero un'ottima recensione ;)
davide155
24-06-2007, 10:26
appena letta, davvero un'ottima recensione ;)
E anche molto promettente.
Si vede proprio che sono i driver a fare da tappo.
A filtri OFF la vga riesce quasi a superare la 8800gtx, ma quando attiva i filtri la situazione è drastica.
Con un buon settaggio dei driver in modo da poter sfruttare tutta la tecnologia che ha la 2900xt si potrebbe vedere un "eguaglio" della 8800gtx
Iantikas
24-06-2007, 10:28
Ragazzi oggi ho visto che la frael della quale un negozio risiede proprio sotto casa mia ha la 2900xt a 359€.
Un prezzo molto allettante.....non trovate?
Tenendo conto che quando uscirà crysis il prezzo sarà calato (spero).....mi sa che l'acquisto di questa scheda non me lo leva nessuno :D
Anche perchè se volessi una 8800gtx non mi entrerebbe nel case, visto che possiedo un ARMOR JR......
Quindi la mia decisione sarebbe un pò forzata, anche se con driver decenti questa scheda sarebbe stata sicuramente la mia futura scelta (ammesso che non esca qualche nuovo chip) :p
Cmq credo sia il prezzo più basso del web o sbaglio?
il + basso ke so io è 354€...inoltre avevo letto una news due giorni fa ke è previsto in questi giorni un calo dei prezzi a 328€, ma nn lo so quanto sia attendibile...
...cmq se x quando esce crysis in DX10 è molto meglio e R600/G80 lo fanno girare x benino (tipo 1680x1050 filtri e tutto a palla) penso ke anke a me niente potrà fermarmi dal prendere una hd2900xt :D ...(anke se spero maggiormente ke fino ad allora siano uscite nuove gpu ancora + potenti)...ciao
il + basso ke so io è 354€...inoltre avevo letto una news due giorni fa ke è previsto in questi giorni un calo dei prezzi a 328€, ma nn lo so quanto sia attendibile...
credo sia possibile anche se in tal caso mi pare strano che hwup non abbia riportato la news :boh:
davide155
24-06-2007, 10:32
il + basso ke so io è 354€...inoltre avevo letto una news due giorni fa ke è previsto in questi giorni un calo dei prezzi a 328€, ma nn lo so quanto sia attendibile...
...cmq se x quando esce crysis in DX10 è molto meglio e R600/G80 lo fanno girare x benino (tipo 1680x1050 filtri e tutto a palla) penso ke anke a me niente potrà fermarmi dal prendere una hd2900xt :D ...(anke se spero maggiormente ke fino ad allora siano uscite nuove gpu ancora + potenti)...ciao
E' si lo spero anche io che escano di nuove.....ma ne dubito....ormai prima di natale secondo me non esce niente.....
Ma mai perdere la speranza :O
-Feanor-
24-06-2007, 12:52
il + basso ke so io è 354€...inoltre avevo letto una news due giorni fa ke è previsto in questi giorni un calo dei prezzi a 328€, ma nn lo so quanto sia attendibile...
...cmq se x quando esce crysis in DX10 è molto meglio e R600/G80 lo fanno girare x benino (tipo 1680x1050 filtri e tutto a palla) penso ke anke a me niente potrà fermarmi dal prendere una hd2900xt :D ...(anke se spero maggiormente ke fino ad allora siano uscite nuove gpu ancora + potenti)...ciao
se si compra all estero...anche solo gb o germania...si trova sui 280€...;)
Zodd_Il_nosferatu
24-06-2007, 13:09
se si compra all estero...anche solo gb o germania...si trova sui 280€...;)
ma io sono uno dei pochi che l'ha trovata a 330? :D
-Feanor-
24-06-2007, 14:08
ragazzi..ho trovato questo altro video(il primo era quello di 3dgm sul crosfire) sulla rumorosità della 2900xt
http://www.youtube.com/watch?v=YIaPUBI-eFc
:eek: :eek: :eek: :eek:
ragazzi...ma è davvero cosi allucinante...??? secondo me questo è il piu grande problema della scheda....
davide155
24-06-2007, 14:37
ragazzi..ho trovato questo altro video(il primo era quello di 3dgm sul crosfire) sulla rumorosità della 2900xt
http://www.youtube.com/watch?v=YIaPUBI-eFc
:eek: :eek: :eek: :eek:
ragazzi...ma è davvero cosi allucinante...??? secondo me questo è il piu grande problema della scheda....
Non è nulla :asd:
Non hai sentito la x1900xt :D
Non è nulla :asd:
Non hai sentito la x1900xt :D
quotissimo :D
è stata la ragione per cui mi sono innamorato dei raffreddamenti a liquido :sofico:
-Feanor-
24-06-2007, 15:22
no dai ragazzi....seriamente...scherzi a parte (:asd:) è davvero cosi rumorosa la scheda o è quella particolare ad essere uscita male...???
Iantikas
24-06-2007, 15:29
no dai ragazzi....seriamente...scherzi a parte (:asd:) è davvero cosi rumorosa la scheda o è quella particolare ad essere uscita male...???
è abb rumorosa in 3d...questo anke xkè d default la ventola ha solo due regimi di rotazione uno x il 2d ed un'altro x il 3d...l'uscita cmq d prog compatibili con R600 tipo l'ultima versione d atitool (0.27b2) permette un pò di limitare questo problema...si può regolare a proprio piacimento il regime della ventola x avere + silenzio (e temp + elevate...anke se c'è un buon margine dato ke con le impo d def s assesta su temp, circa 70° in full, relativamente basse x una gpu)...
...cmq esistono già vari dissi d terze parti tipo l'ottimo HR-03+ della thermalright ke eliminano del tutto il problema e consentono di ottenere temp ridotte con poco rumore...
...ciao
Ma tanto per capire la differenza, il dissipatore standard della 8800GTX è paragonabile a questo del video?
-Feanor-
24-06-2007, 15:37
è abb rumorosa in 3d...questo anke xkè d default la ventola ha solo due regimi di rotazione uno x il 2d ed un'altro x il 3d...l'uscita cmq d prog compatibili con R600 tipo l'ultima versione d atitool (0.27b2) permette un pò di limitare questo problema...si può regolare a proprio piacimento il regime della ventola x avere + silenzio (e temp + elevate...anke se c'è un buon margine dato ke con le impo d def s assesta su temp, circa 70° in full, relativamente basse x una gpu)...
...cmq esistono già vari dissi d terze parti tipo l'ottimo HR-03+ della thermalright ke eliminano del tutto il problema e consentono di ottenere temp ridotte con poco rumore...
...ciao
grazie mille per il chiarimento..ma del problema delle sole 2 frequenze lo sapevo gia...quello che vorrei sapere è : davvero la scheda fa cosi tanto rumore...che ne facesse molto è risuputo...ma COSI tanto?????
Iantikas
24-06-2007, 15:42
grazie mille per il chiarimento..ma del problema delle sole 2 frequenze lo sapevo gia...quello che vorrei sapere è : davvero la scheda fa cosi tanto rumore...che ne facesse molto è risuputo...ma COSI tanto?????
quali e quante ventole usi nel pc???...se sei un amante del silenzio ed usi prodotti molto silenziosi beh o gli cambi il dissi (o la metti a liquido) oppure nn l'aquisti proprio...
...se invece un pò di rumore mentre gioki nn ti da fastidio prendila senza farti problemi...
...l'unica maniera in cui posso spiegarti quanto rumore fa è paragonarla alla x1900xtx...in full load è leggermente meno rumorosa...ciao
-Feanor-
24-06-2007, 15:55
quali e quante ventole usi nel pc???...se sei un amante del silenzio ed usi prodotti molto silenziosi beh o gli cambi il dissi (o la metti a liquido) oppure nn l'aquisti proprio...
...se invece un pò di rumore mentre gioki nn ti da fastidio prendila senza farti problemi...
...l'unica maniera in cui posso spiegarti quanto rumore fa è paragonarla alla x1900xtx...in full load è leggermente meno rumorosa...ciao
:D il mio pc è talmente penoso che non ha bisogno di tante ventole...ho solo il dissi della cpu (p4@2.4ghz) e quello dell ali...però è sempre tutto al 100% di regime...non ha altre frequenze...e non è regolabile con alcuna utility...:muro: ..ma se io giocassi di sera-notte...sveglierei tutto il vicinato...?? :stordita:
NvidiaMen
24-06-2007, 15:58
In attesa dei nuovi test della 2900XT 1GB facciamoci impressionare, per chi non l'avesse ancora visto, dalle potenzialità di R600 con questo video (http://www.youtube.com/watch?v=UWtnt7CvSvQ&mode=related&search=)...
davide155
24-06-2007, 16:08
In attesa dei nuovi test della 2900XT 1GB facciamoci impressionare, per chi non l'avesse ancora visto, dalle potenzialità di R600 con questo video (http://www.youtube.com/watch?v=UWtnt7CvSvQ&mode=related&search=)...
Lo sai che lo stavo per uppare io :eek: :eek:
Un minuto dopo sono arrivato :eek:
Cmq video fantastico.....fa vedere la reale potenza di questa vga :O
-Feanor-
24-06-2007, 16:23
In attesa dei nuovi test della 2900XT 1GB facciamoci impressionare, per chi non l'avesse ancora visto, dalle potenzialità di R600 con questo video (http://www.youtube.com/watch?v=UWtnt7CvSvQ&mode=related&search=)...
mamma mia...:eek: ...tasselation rulezz...:sbav: :winner: ...la dimostrazione stile-lego è pazzesca....:eek:
Iantikas
24-06-2007, 16:29
:D il mio pc è talmente penoso che non ha bisogno di tante ventole...ho solo il dissi della cpu (p4@2.4ghz) e quello dell ali...però è sempre tutto al 100% di regime...non ha altre frequenze...e non è regolabile con alcuna utility...:muro: ..ma se io giocassi di sera-notte...sveglierei tutto il vicinato...?? :stordita:
beh a quanto avevo capito la hd2900xt rientra nel progetto x un nuovo pc...anke xkè su un p4 2.4ghz (penso "northwood-a") sarebbe + ke sprecata (la tapperebbe troppo, come minimo c vorrebbe un cedar mill @3.4ghz)...
...cmq se nn sei uno ke fa molto caso al rumore nn ti far troppi problemi...in idle nn ti darà fastidio e in full mentre gioki se alzi un pò il volume delle casse (o meglio usi le cuffie) nn c farai troppo caso...l'unico vero problema è se il pc lo usi pure x vedere i film...li si ke potrebbe dare fastidio dato ke alcuni utenti hanno detto ke la ventola inzia a cambiare d continuo i giri (ma ora ke atitool la supporta il problema è risolto)...ciao
Free Gordon
24-06-2007, 16:38
si noteranno invece differenze nei giochi alle alte risoluzioni dove ora si vedeva la xt 512 alle costole della gtx, che rallentava andando su di risoluzione: tolto questa piccola differenza vedremo una maggior stabilità con le risoluzioni più elevate....
Sono curioso di vedere dei bench ben fatti, ma non sono sicuro che ci siano molti giochi (attuali e in uscita nell'immediato) che sfruttino più di 512MB..
I 30GB/s di banda in più faranno sempre comodo, ma mi pare molto strano che diano un boost nei confronti di G80 (essendo già la banda della 2900XT 512, maggiore).
Free Gordon
24-06-2007, 16:41
Mmmah... ATi proprio non la sto capendo...
Ma la scheda non volontà è di ATI.
ATI non ha immesso sul mercato questa vers, sono i partner che hanno voluto farla cmq. ;)
-Feanor-
24-06-2007, 16:41
beh a quanto avevo capito la hd2900xt rientra nel progetto x un nuovo pc...anke xkè su un p4 2.4ghz (penso "northwood-a") sarebbe + ke sprecata (la tapperebbe troppo, come minimo c vorrebbe un cedar mill @3.4ghz)...
...cmq se nn sei uno ke fa molto caso al rumore nn ti far troppi problemi...in idle nn ti darà fastidio e in full mentre gioki se alzi un pò il volume delle casse (o meglio usi le cuffie) nn c farai troppo caso...l'unico vero problema è se il pc lo usi pure x vedere i film...li si ke potrebbe dare fastidio dato ke alcuni utenti hanno detto ke la ventola inzia a cambiare d continuo i giri (ma ora ke atitool la supporta il problema è risolto)...ciao
eh eh...:D certo che si...:cool: ...cmq da qualche filmato visto in idle sempbra accettabile...è che ho paura mi tremino i vetri delle finestre di notte se gioco....col silenzio che c'è poi...:(
Free Gordon
24-06-2007, 16:46
Più che altro mostrano la situazione attuale senza inficiarla con pareri personali, cosa che per R600 ho visto fare a pochi. Peccato non abbiano testato la scheda anche con altri giochi: FarCry, Serious Sam 2, Oblivion, l'ultimo Rainbow Six, TDU, STALKER, Supreme Commander, Carbon, GRAW, ecc...
Le prestazioni senza filtri sono in più di un caso superiori alla GTX, è l'AA via shaders che invece dà un colpo notevole alle prestazioni.
Ridimensionano pure la storia del rumore, come pensavo.
Sono scritte alcune gross imprecisioni, all'inizio nella tabella...
Cmq hai centrato il punto completamente, il problema più grosso di R600 è l'AA a carico degli shader ma questa è una scelta "particolare" di design fatta molto tempo addietro, perchè pensiamo sempre che si tratta del più grosso chip (700mln) in assoluto, fra quelli attualmente sul mercato...
Free Gordon
24-06-2007, 16:50
8.11.2006/14.09.2007. 10 mesi e sei giorni.
;)
Chi l'ha detto che esce il 14 settembre?? :D
TecnoWorld8
24-06-2007, 17:03
In attesa dei nuovi test della 2900XT 1GB facciamoci impressionare, per chi non l'avesse ancora visto, dalle potenzialità di R600 con questo video (http://www.youtube.com/watch?v=UWtnt7CvSvQ&mode=related&search=)...
davvero notevole, questo permette di capire cosa è in gradi di fare questa architettura se programmata direttamente da ATi...
DakmorNoland
24-06-2007, 17:09
...cmq se nn sei uno ke fa molto caso al rumore nn ti far troppi problemi...in idle nn ti darà fastidio e in full mentre gioki se alzi un pò il volume delle casse (o meglio usi le cuffie) nn c farai troppo caso...l'unico vero problema è se il pc lo usi pure x vedere i film...li si ke potrebbe dare fastidio dato ke alcuni utenti hanno detto ke la ventola inzia a cambiare d continuo i giri (ma ora ke atitool la supporta il problema è risolto)...ciao
Sì ho visto anch'io è la versione 0.27 b2 di Ati Tool. Quindi è ancora una beta ma pare permetta di controllare la velocità della ventola...
Qualcuno l'ha già provato?
La cosa che vorrei capire è se si può abbassare la velocità in 3D oppure se la scheda scalda così tanto che richede la velocità che gli ha imposto il produttore di default.
Iantikas
24-06-2007, 17:14
Sì ho visto anch'io è la versione 0.27 b2 di Ati Tool. Quindi è ancora una beta ma pare permetta di controllare la velocità della ventola...
Qualcuno l'ha già provato?
La cosa che vorrei capire è se si può abbassare la velocità in 3D oppure se la scheda scalda così tanto che richede la velocità che gli ha imposto il produttore di default.
su una rece avevo letto ke nn era possibile abbassare la velocità della ventola sotto quella impostata d default pena il blocco della gpu x riscaldamento (mi sembra su techpowerup ma nn son sicuro dovrei controllare, se t interessa la cerco...era cmq una rece precedente alla 0.27b2 d atitool quindi nn so come abbiano fatto a cambiarla)...
...io, basandomi sul fatto ke con le impo originali in full load con un case ben ventilato si assesta sui 70/75°, penso c sia un buon margine x abbassare il regime senza incappare in problemi di riscaldamento (c'è da dire cmq ke abbassandolo probabilmente uno deve dire addio all'oc...quindi se si vuole oc e silenzio l'uso d raffreddamenti alternativi è d'obbligo)...ciao
DakmorNoland
24-06-2007, 17:19
...io, basandomi sul fatto ke con le impo originali in full load con un case ben ventilato si assesta sui 70/75°, penso c sia un buon margine x abbassare il regime senza incappare in problemi di riscaldamento (c'è da dire cmq ke abbassandolo probabilmente uno deve dire addio all'oc...quindi se si vuole oc e silenzio l'uso d raffreddamenti alternativi è d'obbligo)...ciao
Secondo me è pazzia OC una VGA del genere. Nel caso direi che è d'obbligo il liquido.
Ma dici che un vf900cu sempre che si riesca a montare si scioglie all'istante? :D Sinceramente ho paura di si però magari con un paio di ventole da 120mm che lo raffreddano sopra...
halduemilauno
24-06-2007, 17:55
Chi l'ha detto che esce il 14 settembre?? :D
http://www.tomshw.it/news.php?newsid=10536
ma Crysis potra essere eseguito anche su win xp, e quindi sotto dx 9? (anche se ho la 2900) perchè ho letto che per il multiplayer hanno sviluppato un motore sia dx9 che 10, ma per il single player nn mi ricordo
appleroof
24-06-2007, 20:07
ma Crysis potra essere eseguito anche su win xp, e quindi sotto dx 9? (anche se ho la 2900) perchè ho letto che per il multiplayer hanno sviluppato un motore sia dx9 che 10, ma per il single player nn mi ricordo
si ;)
si ;)
grazie, perchè come vedi della firma il mio problema sta nel dual-core, e nn mi sembra sensato buttare 150/200€ per una cpu che cmq è vecchia, invece volevo pazientare e prendere un bel k10 (a natale)
Secondo me prima della seconda metà di luglio, quando presenteranno i risultati del Q2 2007 e faranno il technology analyst day, sarà difficile sapere cifre certe sulle vendite di R600, ricordando peraltro che di solito in questi eventi si citano le cifre di prodotti consegnati, non quelli effettivamente venduti (questo vale pure per nVidia): in certi casi i 2 dati possono differire di molto (vedi PS3).
Grazie :)
Io comunque continuo a rimanere perplesso sul fatto che non ci sono recensioni da nessuna parte se non qualche bench "buttato li", si può sapere cosa aspettano?:rolleyes:
Free Gordon
25-06-2007, 10:30
su una rece avevo letto ke nn era possibile abbassare la velocità della ventola sotto quella impostata d default pena il blocco della gpu x riscaldamento (mi sembra su techpowerup ma nn son sicuro dovrei controllare, se t interessa la cerco...era cmq una rece precedente alla 0.27b2 d atitool quindi nn so come abbiano fatto a cambiarla)...
Ma non c'è ancora nessuno che ha provato un bel VF900 su questa VGA?
Mi pare strano che se si abbassa la ventola, la GPU si blocchi, dato che le temp in full con ventola al max, non sono per nulla alte.
...io, basandomi sul fatto ke con le impo originali in full load con un case ben ventilato si assesta sui 70/75°, penso c sia un buon margine x abbassare il regime senza incappare in problemi di riscaldamento (c'è da dire cmq ke abbassandolo probabilmente uno deve dire addio all'oc...quindi se si vuole oc e silenzio l'uso d raffreddamenti alternativi è d'obbligo)...ciao
Quoto.
Ma non c'è nessuno che ha provato sta benedetta VGA con un VF900?? Per me sarebbe stata la prima cosa da fare, restando ad aria. :D
Lo sai che lo stavo per uppare io :eek: :eek:
Un minuto dopo sono arrivato :eek:
Cmq video fantastico.....fa vedere la reale potenza di questa vga :O
Sinceramente in quel video mi fa cag@re, o meglio è Youtube che fa cag@are.:rolleyes:
Qualcosa in HI-RES immagino non ci sia? Ormai son tutti fissati con sto cavolo di youtube....:doh:
MakenValborg
25-06-2007, 10:45
Ma non c'è ancora nessuno che ha provato un bel VF900 su questa VGA?
Mi pare strano che se si abbassa la ventola, la GPU si blocchi, dato che le temp in full con ventola al max, non sono per nulla alte.
Quoto.
Ma non c'è nessuno che ha provato sta benedetta VGA con un VF900?? Per me sarebbe stata la prima cosa da fare, restando ad aria. :D
Ho idea che il vf 900 sia inferire al dissy stock....piccolino con ventola piccina anch'essa.. (parlo perchè il vf l'ho avuto) ricordo che rispetto al dissy stock della 1900xt era più silenzioso, ma a prestazioni eravamo lì..
Iantikas
25-06-2007, 10:47
Ma non c'è ancora nessuno che ha provato un bel VF900 su questa VGA?
Mi pare strano che se si abbassa la ventola, la GPU si blocchi, dato che le temp in full con ventola al max, non sono per nulla alte.
Quoto.
Ma non c'è nessuno che ha provato sta benedetta VGA con un VF900?? Per me sarebbe stata la prima cosa da fare, restando ad aria. :D
mi sembra ke nn'è compatibile il vf900 con la hd2900xt...inoltre quel dissi già con le x1900xtx è al limite...nn penso sia adeguato al consumo d R600...l'unico dissi ke x ora mi ispira fiducia è HR03+ della thermalright...se avessi una hd2900xt aquistarlo sarebbe la prima cosa ke farei...ciao
MakenValborg
25-06-2007, 10:53
mi sembra ke nn'è compatibile il vf900 con la hd2900xt...inoltre quel dissi già con le x1900xtx è al limite...nn penso sia adeguato al consumo d R600...l'unico dissi ke x ora mi ispira fiducia è HR03+ della thermalright...se avessi una hd2900xt aquistarlo sarebbe la prima cosa ke farei...ciao
o un bel liquido ;)
Free Gordon
25-06-2007, 10:53
http://www.tomshw.it/news.php?newsid=10536
Nulla di certo. ;)
Free Gordon
25-06-2007, 11:25
Ho idea che il vf 900 sia inferire al dissy stock....piccolino con ventola piccina anch'essa.. (parlo perchè il vf l'ho avuto) ricordo che rispetto al dissy stock della 1900xt era più silenzioso, ma a prestazioni eravamo lì..
L'ultima volta che l'ho provato (ma era il VF700-cu) ero sotto X850 e teneva temp una ventina di gradi in meno del dissi stock...
Il VF900 era ancora meglio.
Sotto la 1900 mai provato però.
gianni1879
25-06-2007, 11:32
L'ultima volta che l'ho provato (ma era il VF700-cu) ero sotto X850 e teneva temp una ventina di gradi in meno del dissi stock...
Il VF900 era ancora meglio.
Sotto la 1900 mai provato però.
sotto la x1900 l'ho tenuto poco più di 10gg dopo di che venduto di corsa, silenzioso si, ma prestazioni scadenti, specie con temp ambiente elevata
Ma non avete le firme "leggermente" fuori specifica? io vedo ben più di tre righe a 1024
Kal-El e Free Gordon siete pregati di sistemare la firma, è irregolare:
Signature: 3 righe a 1024 solo testo con un massimo di 3 smiles dell'Hardware Upgrade Forum oppure un'immagine 100 X 50 X 5KB e una riga di testo (non deve andare a capo).
Konrad76
25-06-2007, 11:49
Kal-El e Free Gordon siete pregati di sistemare la firma, è irregolare:
Scusa per venerdì wiltord, ma ero sul posto di lavoro e non mi sono accorto delle risoluzione dello schermo......ora dovrei essere apposto....almeno credo.....sorry ancora;)
Free Gordon
25-06-2007, 12:08
Kal-El e Free Gordon siete pregati di sistemare la firma, è irregolare:
La mia è di 3 righe, @1024x768.
Ancora niente..
Comunque nel frattempo è uscito atitool 0.27 beta ;
Kal-El e Free Gordon siete pregati di sistemare la firma, è irregolare:
Ora è ok? :)
+Lonewolf+
25-06-2007, 13:36
Ancora niente..
Comunque nel frattempo è uscito atitool 0.27 beta ;
sul mio OS non funge
La mia è di 3 righe, @1024x768.
io vedo 4200rpm sulla quarta riga..
Kal-El e Free Gordon siete pregati di sistemare la firma, è irregolare:
stesso avvertimento per Baio73, sistemare grazie.
+Lonewolf+
25-06-2007, 13:58
io vedo 4200rpm sulla quarta riga..
stesso avvertimento per Baio73, sistemare grazie.
freegordon io la vedo 3 righe...
baio è fuori norma...si...
Buongiorno silicio-dipendenti! :stordita:
Sono stato un pochetto in ferie... :Prrr: e mi domandavo... e' uscito 'sto benedetto adattatore per il secondo cavo di alimentazione??
Ciao! ;)
Baio
no. però so che i nuovi ali si stanno adattando al nuovo standard ad esempio un mio amico l'altrogiorno ha comprato un Enermax Liberty 500w ed è presente il filo a 8pin:)
Scrambler77
25-06-2007, 14:42
io vedo 4200rpm sulla quarta riga..
stesso avvertimento per Baio73, sistemare grazie.
Forse meglio un PVT... no?
ale0bello0pr
25-06-2007, 14:45
La mia è di 3 righe, @1024x768.
effettivamente ankio vedo 3 righe.... :confused: :mbe:
bho :D
+Lonewolf+
25-06-2007, 14:55
avete visto la RX2900XT? l'ha presentata MSi...veramente bello il dissipatore
cmq è uscita la patch x call of juarez directx 10...spero di vedere presto un bench
MonsterMash
25-06-2007, 14:55
Per quanto riguarda l'adattatore per l'alimentazione a 8 pin, tempo fa lessi di una semplicissima mod da fare sulla scheda, cortocircuitando i due contatti che restano a vuoto collegando il cavo a 6 pin coi contatti subito accanto (in modo da metterne uno a massa e l'altro a 12V) per "ingannare" il CCC e fargli credere che la scheda sia alimentata con il cavo a 8 pin.
Qualcuno sa qualcosa di più preciso in proposito?
Ciao
JoeLatino
25-06-2007, 15:21
Per quanto riguarda l'adattatore per l'alimentazione a 8 pin, tempo fa lessi di una semplicissima mod da fare sulla scheda, cortocircuitando i due contatti che restano a vuoto collegando il cavo a 6 pin coi contatti subito accanto (in modo da metterne uno a massa e l'altro a 12V) per "ingannare" il CCC e fargli credere che la scheda sia alimentata con il cavo a 8 pin.
Qualcuno sa qualcosa di più preciso in proposito?
Ciao
io avevo postato questo tempo fa'....
avete visto la RX2900XT? l'ha presentata MSi...veramente bello il dissipatore
cmq è uscita la patch x call of juarez directx 10...spero di vedere presto un bench
La patch di coj dx10 purtroppo non la posso provare visto che non ho il gioco qualcuno che lo ha, la provi e ci faccia sapere grazie :D
+Lonewolf+
25-06-2007, 19:19
La patch di coj dx10 purtroppo non la posso provare visto che non ho il gioco qualcuno che lo ha, la provi e ci faccia sapere grazie :D
un uccellino è passato e mi ha detto che stasera escono i cata:rolleyes:
IMHO:D
avete visto la RX2900XT? l'ha presentata MSi...veramente bello il dissipatore
cmq è uscita la patch x call of juarez directx 10...spero di vedere presto un bench
potresti linkarmela?
-Feanor-
25-06-2007, 21:25
date un occhiata qui.......... http://www.tweaktown.com/articles/1122/1/page_1_introduction/index.html
una recensione fresca fresca di OGGI...prestazioni abbastanza in linea con altre rece mi sembra....di veramente buono mi pare ridimensionato il problema rumore....qui pare in linea con la 88000gts....;)
date un occhiata qui.......... http://www.tweaktown.com/articles/1122/1/page_1_introduction/index.html
una recensione fresca fresca di OGGI...prestazioni abbastanza in linea con altre rece mi sembra....di veramente buono mi pare ridimensionato il problema rumore....qui pare in linea con la 88000gts....;)
vista e trovata moooooooolto interessante e si evincono molte molte cose
1)la 2900 con i 7.5 senza filtri è molto vicina se non superiore ad una 8800gtx
2)di contro sono tutti test dove ci sono ampli framerate e se guardate anche la 8800gts è di poco (manciate di 10-15 fps su 150 di media di tutte e 4 le vga) inferiore ad una 8800gtx.
3)la 8800ultra nonostante sia una 8800gtx pompata e nonostante si usino i 153.xx ufficiali puo ancora migliorare visto che in alcuni test sta sotto una gtx anche di molto ergo anche per le 8800ultra ci saranno miglioramenti dal punto di vista dei dvr.
4)la 2900 crolla quando si attiva aa4x e af16x.
non tanto per l'af quanto per antialising fatto nelle shader units che pare maldigerito dalle dx9.
questo fa siche a volte le 2900 stanno anche sotto alle 8800gts.
5)il rumore sembra a livello di una gtx-gts ergo vuol dire che con i catalist 7.5 hanno migliorato la gestione della ventola
6) i consumi putroppo restano + alti di una 8800ultra.
da queste rece si vedono delle linee guida molto marcate sul progetto r600.
sicuramente una archidettura innovativa virtualmente di infinito potenziale in dx10 purtroppo lacune soluzioni tecniche sembrano mal sposarsi con l'attuale e da poco passata generazione di giochi dx9 per via dell'innovativo sistema di fare AA di r600.
molto andrà affinato anche con i dvr visto che le nvidia utilizzano ancora un controler crossbar rodato da anni mentre ati appena ha imparato ad utilizzare un ringbus da 256bit sulla serie r5x0 ora si trova a dover tirare fuori il meglio dall'archidettura + complessa di un ringbus da 512bit.
mi pare nell'intervista postata da leoneazzurro il pr ati diceva chiaramente che hanno appena scalfito a livello dvr le potenzialità del nuovo bus e difatti se pur mettendo a disposizione ben 105gb di banda credo che nelle vecchie recensioni e anche in queste con i 7.5 il bus a 512bit venga utilizzato ancora come uno a 256bit pompato(ovviamente non potevano buttare nel cesso tutta la conoscenza nell'uso del ringbus a 256bit accumulata da r520 in poi ma ne avevano il tempo di scrivere un dvr gia competitivo per un ringbus a 512bit)
ricordo che per come è strutturato il ringbus è molto importante la velocità con cui vengono "stoppati" o "fatti correre" i dati attraverso la memoria e il ringbus sicuramente in questa direzione ci sono da aspettarsi i migliori incrementi una gestione del ringbus migliore aumenta l'efficacia della gestione di una banda di per se "mostruosa" ma propio per la grande mole di dati che mette a disposizione il controler di memoria deve essere altamente ottimizzato per gestire tutta questa quantità di dati.
purtroppo invece per il secondo problema dell'aa in shader bèh non credo ci sia molto da fare a livello dvr in questa direzione....ci possono essere i miglioramenti del caso ma cmq l'elabiorazione a livello hw è quella e non si puo cambiare ergo quindi non resta che aspettare i primi giochi dx10 e vedere se questa soluzione è vincente xè come tutti abbiamo visto in dx9 è una soluzione innovativa ma poco efficente per via della struttura delle dx9 stesse.
il mio dubbio che è ut3 engine è un motore full dx9 e speriamo sia altamente ottimizzato anche per le vga dx10 che elaborano le cose in hw come le specifiche dx10. a questo punto forse la soluzione migliore per r600 sarebbe che si complilassero i dvr dx10 da 0 per sfruttare a pieno regime l'archidettura sicuramente efficente e che per una volta ati guardi a nvidia magari inserendo come all'epoca la casa californiana fece un compilatore dx9 nei dvr che possa in qualche maniera emulare le chiamate dx9 che mal si addicono alla struttura hw di r600
un uccellino è passato e mi ha detto che stasera escono i cata:rolleyes:
IMHO:D
ESATTO, sono proprio adesso in download, la versione è la 8.383 (quindi i Catalyst 7.6), ovviamente uscita il 25/06.
qui (http://ati.amd.com/support/drivers/xp/radeonx-xp.html)il link per il download.
THK!
ESATTO, sono proprio adesso in download, la versione è la 8.383 (quindi i Catalyst 7.6), ovviamente uscita il 25/06.
qui (http://ati.amd.com/support/drivers/xp/radeonx-xp.html)il link per il download.
THK!
appena li ho finiti e ho fatto un po' di prove vi faccio sapere
ESATTO, sono proprio adesso in download, la versione è la 8.383 (quindi i Catalyst 7.6), ovviamente uscita il 25/06.
qui (http://ati.amd.com/support/drivers/xp/radeonx-xp.html)il link per il download.
THK!
su con i test ragazzi :)
su con i test ragazzi :)
esatto :)
vediamo se finalmente l'AA non affossa le prestazioni.
esatto :)
vediamo se finalmente l'AA non affossa le prestazioni.
be speriamo anche altro :D :D magari qualcuno controlli se ci sono ancora gli artefatti in dx10
ale0bello0pr
25-06-2007, 22:33
date un occhiata qui.......... http://www.tweaktown.com/articles/1122/1/page_1_introduction/index.html
una recensione fresca fresca di OGGI...prestazioni abbastanza in linea con altre rece mi sembra....di veramente buono mi pare ridimensionato il problema rumore....qui pare in linea con la 88000gts....;)
bene bene...scarichiamo i nuovi drivers....cavoli ed è passato neanke un mese dalla sua uscita... ;)
-Feanor-
25-06-2007, 22:35
dai ragazzi.....fuoco alle polveri....:Perfido: :Perfido: :Perfido: http://img508.imageshack.us/img508/9031/gladietorwo8.gif (http://imageshack.us)
:D :D :D
3DMark79
25-06-2007, 22:36
ESATTO, sono proprio adesso in download, la versione è la 8.383 (quindi i Catalyst 7.6), ovviamente uscita il 25/06.
qui (http://ati.amd.com/support/drivers/xp/radeonx-xp.html)il link per il download.
THK!
Ciao M4R1|< sono proprio curioso di sapere come vanno questi driver
fateci sapere...apriamo le danze...;)
Possibile che siano solo questi i miglioramenti con i giochi per adesso...?:mbe: :confused:
Performance Improvements
Half-Life 2: Episode 1 and Dark Messiah Might and Magic performance improves on the ATI Radeon™ HD2900 XT Crossfire configurations. Improvements of 16% or more can be seen with HDR enabled.
-Feanor-
25-06-2007, 22:41
Ciao M4R1|< sono proprio curioso di sapere come vanno questi driver
fateci sapere...apriamo le danze...;)
Possibile che siano solo questi i miglioramenti con i giochi per adesso...?:mbe: :confused:
Performance Improvements
Half-Life 2: Episode 1 and Dark Messiah Might and Magic performance improves on the ATI Radeon™ HD2900 XT Crossfire configurations. Improvements of 16% or more can be seen with HDR enabled.
:eek: ...è vero.... è tutto cio che c'è scritto nella sezione Performance Improvements delle release notes...:sob: ...mi sa tanto che anche questa volta di lavoro su 2900xt ce ne è ben poco...:sob:
Zodd_Il_nosferatu
25-06-2007, 22:45
è bello vedere che sono li stessi del sito asus solamente con la certificazione whql in + :muro:
:eek: ...è vero.... è tutto cio che c'è scritto nella sezione Performance Improvements delle release notes...:sob: ...mi sa tanto che anche questa volta di lavoro su 2900xt ce ne è ben poco...:sob:
ma aspettate a fasciarvi la testa, tanto 10 min e vi faccio sapere, devo solo riavviare e provare (facci il test con unigine e 3dmark 06)
3DMark79
25-06-2007, 22:49
:eek: ...è vero.... è tutto cio che c'è scritto nella sezione Performance Improvements delle release notes...:sob: ...mi sa tanto che anche questa volta di lavoro su 2900xt ce ne è ben poco...:sob:
Di questo passo bisognerà aspettare i driver di agosto del 2008 per essere ottimizzati.
Speriamo mi sbagli.:(
3DMark79
25-06-2007, 22:52
ma aspettate a fasciarvi la testa, tanto 10 min e vi faccio sapere, devo solo riavviare e provare (facci il test con unigine e 3dmark 06)
Grande M4R1|<!!!:yeah:
Quanto siamo ruffiani!:)
leoneazzurro
25-06-2007, 22:52
Questi probabilmente sono i drivers di lancio delle 2600/2400.
Questi probabilmente sono i drivers di lancio delle 2600/2400.
nell'elenco dei chip supportati sono infatti elencate.
-Feanor-
25-06-2007, 22:56
Questi probabilmente sono i drivers di lancio delle 2600/2400.
gia è vero....molto probabile...speriamo solo che dopo questi si dedichino esclusivamente a 2900xt almeno per un breve periodo....se dopo iniziassero subito a fixare per 2400/2600 senza la 2900 ci sarebbe da arrabbiarsi seriamente...:muro:
Y2J Lionheart
25-06-2007, 22:59
3DMark06
C2D E6400 @2400Mhz
2Gb di Ram
HD2900XT
WinVista x64
Catalyst 7.6
http://www.image-share.net/image/23065/thumb/R600 vista 7.6 cpu 24001.jpg (http://www.image-share.net/view.php?name=R600 vista 7.6 cpu 24001.jpg&car=23065)
Prima facevo 8800 (:asd:) e qualcosa....
nn saprei cosa dirvi, mi spiace, ma.... sono uguali come prestazioni agli 8.81 (beta e non), e quindi ovviamente anche il problema dell AA è uguale a prima, davvero nn commento il lavoro di ati o mi bannate
3DMark06
C2D E6400 @2400Mhz
2Gb di Ram
HD2900XT
WinVista x64
Catalyst 7.6
http://www.image-share.net/image/23065/thumb/R600 vista 7.6 cpu 24001.jpg (http://www.image-share.net/view.php?name=R600 vista 7.6 cpu 24001.jpg&car=23065)
Prima facevo 8800 (:asd:) e qualcosa....
no come, allora c'è qualcosa che da me nn va! UFFI
3DMark79
25-06-2007, 23:03
Se non dovevo comprarla ci sarebbero state le hd2900xt ultimate ultra gto xtx ecc...ora tocca ancora aspettare?:cry:
+Lonewolf+
25-06-2007, 23:05
3DMark06
C2D E6400 @2400Mhz
2Gb di Ram
HD2900XT
WinVista x64
Catalyst 7.6
http://www.image-share.net/image/23065/thumb/R600 vista 7.6 cpu 24001.jpg (http://www.image-share.net/view.php?name=R600 vista 7.6 cpu 24001.jpg&car=23065)
Prima facevo 8800 (:asd:) e qualcosa....
beh...allora si sono dati da fare:) e ho la sensazione che siamo solo agli inizi dell'otimizzazione per la nuova serie:)
3DMark79
25-06-2007, 23:06
no come, allora c'è qualcosa che da me nn va! UFFI
Possibile che sotto vista abbia avuto incrementi??:eek:
Ho il tuo procio ti limita?
ale0bello0pr
25-06-2007, 23:06
beh...allora si sono dati da fare:) e ho la sensazione che siamo solo agli inizi dell'otimizzazione per la nuova serie:)
edit
Possibile che sotto vista abbia avuto incrementi??:eek:
Ho il tuo procio ti limita?
mi sa che finche nn lo cambio i valori che avrò saranno sempre quelli..........:cry: :cry: :cry: :cry: :cry:
Kharonte85
25-06-2007, 23:09
mi sa che finche nn lo cambio i valori che avrò saranno sempre quelli..........:cry: :cry: :cry: :cry: :cry:
Fai/Fate i test sui giochi...nei benchmark sei limitato dal processore...;)
3DMark79
25-06-2007, 23:11
mi sa che finche nn lo cambio i valori che avrò saranno sempre quelli..........:cry: :cry: :cry: :cry: :cry:
Se vuoi fai 2 passi e mi vieni a trovare a Catania anche se ci sono circa 46° e fa un pochino di caldo...e
la collaudiamo nel mio.:D
Mi dispiace! :(
+Lonewolf+
25-06-2007, 23:23
il problema delle ombre in call of juarez non è stato risolto
Se vuoi fai 2 passi e mi vieni a trovare a Catania anche se ci sono circa 46° e fa un pochino di caldo...e
la collaudiamo nel mio.:D
Mi dispiace! :(
be grazie però da bergamo a te sono un po' più di due passi, cmq np aspetterò i k10.
Fai/Fate i test sui giochi...nei benchmark sei limitato dal processore...;)
ho provato con stalker, Supreme Commander e GRAW ma la situazione è sempre quella, forse qualcosa in più in stalker, tipo 4/5 fps, ma niente di più
3DMark06
C2D E6400 @2400Mhz
2Gb di Ram
HD2900XT
WinVista x64
Catalyst 7.6
http://www.image-share.net/image/23065/thumb/R600 vista 7.6 cpu 24001.jpg (http://www.image-share.net/view.php?name=R600 vista 7.6 cpu 24001.jpg&car=23065)
Prima facevo 8800 (:asd:) e qualcosa....
Se hai usato una metodologia "giusta", questi 7.6 sono un bel passo avanti, ad esempio al 3DMark06 sono circa 500 punti in più... Mica bruscolini... :eek:
Se hai qualche gioco "pesante" testali con quello, poi ci fai sapere... ;)
3DMark79
25-06-2007, 23:30
Ma da qualche parte si diceva che cmq la hd2900 non faceva un uso spropositato di CPU visto che alcune operazione le faceva la GPU?:confused:
Correggetemi se sbaglio.
Y2J Lionheart
25-06-2007, 23:32
Se hai usato una metodologia "giusta", questi 7.6 sono un bel passo avanti, ad esempio al 3DMark06 sono circa 500 punti in più... Mica bruscolini... :eek:
Se hai qualche gioco "pesante" testali con quello, poi ci fai sapere... ;)
Il 3dmark era a default
Ho Stalker che è pesante :asd: ed Oblivion ma non fa testo perche ho tante mod grafiche
3DMark79
25-06-2007, 23:36
Il 3dmark era a default
Ho Stalker che è pesante :asd: ed Oblivion ma non fa testo perche ho tante mod grafiche
Ciao Lionheart,
hai provato anche il 3dmark05?
Certo che se riusciresti a portare la cpu come il mio in firma supereresti i 10000 al 3dmark06.
be grazie però da bergamo a te sono un po' più di due passi, cmq np aspetterò i k10.
mi sa che io son piu vicino.... :D
nn sarai limitato dal monocore :confused: :confused:
Y2J Lionheart
25-06-2007, 23:40
Ciao Lionheart,
hai provato anche il 3dmark05?
Certo che se riusciresti a portare la cpu come il mio in firma supereresti i 10000 al 3dmark06.
il 05 lo devo ancora provare
guarda, la cpu ci arriva benissimo a 3.2ghz purtroppo,per via dell' ali, gia a 2600mhz mi si è riavviato il pc mentre giocavo.
Meglio non rischiare di fottere tutto :D
NvidiaMen
25-06-2007, 23:42
Ma da qualche parte si diceva che cmq la hd2900 non faceva un uso spropositato di CPU visto che alcune operazione le faceva la GPU?:confused:
Correggetemi se sbaglio.
Non sbagli, ma almeno un dual core credo sarebbe il minimo da associargli...:rolleyes:
+Lonewolf+
25-06-2007, 23:54
io cmq speravo che fixassero qualcosa sulle 2900 invece si sono grattati la panza...e non mi và di aspettare un'altro mese per vedere magari un miglioramento marginale sulla VGA...c'è un modo x scrivere ad ATI e dire ciò che penso? dico seriamente
Mister Tarpone
25-06-2007, 23:59
Ma da qualche parte si diceva che cmq la hd2900 non faceva un uso spropositato di CPU visto che alcune operazione le faceva la GPU?:confused:
Correggetemi se sbaglio.
si dicevano tante cose... anche che l'AA4x sarebbe stato "free", su questa scheda... :boh: :sob:
+Lonewolf+
26-06-2007, 00:02
si dicevano tante cose... anche che l'AA4x sarebbe stato "free", su questa scheda... :boh: :sob:
cmq vi ricordo che si parla poco di migliorie x la 2900 sulle relase notes...in ogni caso sono molto deluso e vi comunico che se entro i nuovi catalyst non sono stati risolti i vari casini defenestrerò la scheda...:mad:
Y2J Lionheart
26-06-2007, 00:02
Allora ho provato stalker
settaggi:
http://www.image-share.net/image/23065/thumb/XR_3DA 2007-06-26 00-44-42-84.jpg (http://www.image-share.net/view.php?name=XR_3DA 2007-06-26 00-44-42-84.jpg&car=23065) http://www.image-share.net/image/23065/thumb/XR_3DA 2007-06-26 00-45-30-42.jpg (http://www.image-share.net/view.php?name=XR_3DA 2007-06-26 00-45-30-42.jpg&car=23065)
Sono appena all' inizio e quindi vado ad ingaggiare una sparatoria con i soldati che presidano il ponte
Min, Max, Avg
42, 83, 61
edit: sono sempre su vista x64
+Lonewolf+
26-06-2007, 00:08
Allora ho provato stalker
settaggi:
http://www.image-share.net/image/23065/thumb/XR_3DA 2007-06-26 00-44-42-84.jpg (http://www.image-share.net/view.php?name=XR_3DA 2007-06-26 00-44-42-84.jpg&car=23065) http://www.image-share.net/image/23065/thumb/XR_3DA 2007-06-26 00-45-30-42.jpg (http://www.image-share.net/view.php?name=XR_3DA 2007-06-26 00-45-30-42.jpg&car=23065)
Sono appena all' inizio e quindi vado ad ingaggiare una sparatoria con i soldati che presidano il ponte
edit: sono sempre su vista x64
metti tutto al massimo tranne l'antialiasing che devi mettere a zero
cmq vi ricordo che si parla poco di migliorie x la 2900 sulle relase notes...in ogni caso sono molto deluso e vi comunico che se entro i nuovi catalyst non sono stati risolti i vari casini defenestrerò la scheda...:mad:
Deluso di cosa esattamente?
MonsterMash
26-06-2007, 00:14
Deluso di cosa esattamente?
Deluso dal fatto che a quanto pare ancora per almeno un intero mese la nostra scheda resterà mal supportata dai driver...
leoneazzurro
26-06-2007, 00:18
Evidentemente quando dicevo che ci vorranno 6 mesi almeno per avere drivers decenti credevate che scherzassi...
Un'architettura nuova non è come un refresh.
3DMark79
26-06-2007, 00:19
il 05 lo devo ancora provare
guarda, la cpu ci arriva benissimo a 3.2ghz purtroppo,per via dell' ali, gia a 2600mhz mi si è riavviato il pc mentre giocavo.
Meglio non rischiare di fottere tutto :D
Se avevo quella scheda sarebbe stata la stessa cosa per me.:D
Y2J Lionheart
26-06-2007, 00:20
Intanto ho fatto questo:
http://www.image-share.net/image/23065/thumb/unigine 7.6 vista64 d3d.jpg (http://www.image-share.net/view.php?name=unigine 7.6 vista64 d3d.jpg&car=23065)
in opengl ci sono diversi errori di visualizzazione e allora ho lasciato perdere
Io sinceramente sto installando ora i driver e bado più alla risoluzione dei problemi che all'aumento dei frame, in questo momento, poi ognuno faccia quello che vuole, manco fosse uscito un titolone mal supportato che richiedesse driver specifici, a meno di non considerare Halo 2 un titolone ;)
Y2J Lionheart
26-06-2007, 00:31
Ho rifatto i test con stalker come mi ha detto +lonewolf+
Min, Max, Avg
26, 65, 47
+Lonewolf+
26-06-2007, 00:40
Ho rifatto i test con stalker come mi ha detto +lonewolf+
buona questa!!!:)
+Lonewolf+
26-06-2007, 00:40
Io sinceramente sto installando ora i driver e bado più alla risoluzione dei problemi che all'aumento dei frame, in questo momento, poi ognuno faccia quello che vuole, manco fosse uscito un titolone mal supportato che richiedesse driver specifici, a meno di non considerare Halo 2 un titolone ;)
problemi risolti ce ne sono stati eccome, in OS xò...nei giochi niente...
+Lonewolf+
26-06-2007, 00:42
Evidentemente quando dicevo che ci vorranno 6 mesi almeno per avere drivers decenti credevate che scherzassi...
Un'architettura nuova non è come un refresh.
ma fra 6 mesi sar già vecchia...cmq ho notato che hanno individuato molti problemi(non riguardanti giochi) se si legge nel sito ati e dicono che verranno risolti nei 7.8...penso che nei 7.7 ottimizzeranno molto il lato performance xkè se così non sarà.....:bsod:
+Lonewolf+
26-06-2007, 00:46
per la cronaca...ho fatto il 3dmark 2006 su xp
cata 7.5-------------> 10395 marks
cata 7.6-------------> 10406 marks
11 punti mica bruscolini:O
Kharonte85
26-06-2007, 08:40
per la cronaca...ho fatto il 3dmark 2006 su xp
cata 7.5-------------> 10395 marks
cata 7.6-------------> 10406 marks
11 punti mica bruscolini:O
Basta leggere la release note dei 7.6 per capire dove ci sono incrementi prestazionali:
Performance Improvements
Half-Life 2: Episode 1 and Dark Messiah Might and Magic performance improves on the ATI Radeon™ HD2900 XT Crossfire configurations. Improvements of 16% or more can be seen with HDR enabled.
;)
Athlon 64 3000+
26-06-2007, 08:43
Evidentemente quando dicevo che ci vorranno 6 mesi almeno per avere drivers decenti credevate che scherzassi...
Un'architettura nuova non è come un refresh.
Sono perfettamente d'accordo perchè l'architettura è talmente complessa che ci voorà del tempo per spemerla.
Spero che almeno con i 7.7 comincino ad eliminare i primi bachi.
Vi ricordo che le 8800 sono uscite a novembre e i primi driver decenti che hanno cominciato un po' a spremerle sono usciti nella seconda metà di aprile e sono passati 5 mesi e mezzo.
halduemilauno
26-06-2007, 08:43
una rece con i nuovi 7.6
http://www.tweaktown.com/articles/1123/1/page_1_introduction/index.html
Kharonte85
26-06-2007, 08:49
una rece con i nuovi 7.6
http://www.tweaktown.com/articles/1123/1/page_1_introduction/index.html
A parte un incremento in Prey non ci sono cambiamenti...io comincio a pensare che le scarse prestazioni con AA attivo siano da imputare all'architettura, non ai driver...
halduemilauno
26-06-2007, 08:50
Sono perfettamente d'accordo perchè l'architettura è talmente complessa che ci voorà del tempo per spemerla.
Spero che almeno con i 7.7 comincino ad eliminare i primi bachi.
Vi ricordo che le 8800 sono uscite a novembre e i primi driver decenti che hanno cominciato un po' a spremerle sono usciti nella seconda metà di aprile e sono passati 5 mesi e mezzo.
l'ho gia detto e lo ripeto in quel caso era anche voluto. una volta rilasciati i primi ufficiali e certificati per vista la loro evoluzione/sviluppo(vista/xp) è stata fatta a rilento apposta per ovvi motivi. l'ho ripetuto perchè il paragone non è calzante.
Basta leggere la release note dei 7.6 per capire dove ci sono incrementi prestazionali:
Performance Improvements
Half-Life 2: Episode 1 and Dark Messiah Might and Magic performance improves on the ATI Radeon™ HD2900 XT Crossfire configurations. Improvements of 16% or more can be seen with HDR enabled.
;)
appunto...
A parte un incremento in Prey non ci sono cambiamenti...io comincio a pensare che le scarse prestazioni con AA attivo siano da imputare all'architettura, non ai driver...
spero davvero che nn sia così :confused: nn posso credere che quei ... hanno fatto un'architettura così di M, mi sembra molto strano :confused:
spero davvero che nn sia così :confused: nn posso credere che quei ... hanno fatto un'architettura così di M, mi sembra molto strano :confused:
magari è solo in DX9 che l'AA per come è concepito non rende, in DX10 potrebbe cambiare.
gianni1879
26-06-2007, 09:16
A parte un incremento in Prey non ci sono cambiamenti...io comincio a pensare che le scarse prestazioni con AA attivo siano da imputare all'architettura, non ai driver...
si l'unico game dove c'è un reale incremento è prey, negli altri nisba... boh
Si può sapere quando arrivano le recensioni di questa scheda? E' vergognoso!:mad:
Kharonte85
26-06-2007, 09:18
Si può sapere quando arrivano le recensioni di questa scheda? E' vergognoso!:mad:
:mbe: guarda che di recensioni ce ne sono tantissime...:confused:
Si può sapere quando arrivano le recensioni di questa scheda? E' vergognoso!:mad:
:mbe: guarda che di recensioni ce ne sono tantissime...:confused:
:asd:
mi sà che parla della 1Gb :stordita:
:asd:
mi sà che parla della 1Gb :stordita:
Esatto. Stanno aspettando l'uscita di R700 a quanto pare.:rolleyes: :rolleyes:
Kharonte85
26-06-2007, 09:23
Esatto. Stanno aspettando l'uscita di R700 a quanto pare.:rolleyes: :rolleyes:
Ah ecco...secondo me meglio saltarla quella da 1gb...;)
Poliphilo
26-06-2007, 09:23
Questa è una recensione di un'amico di un altro forum, molto molto dettagliata
RECENSIONEHD2900XT (http://www.hwstation.net/recensioni/sapphire_radeon_hd_x2900xt_512mb/introduzione.html)
Provate a leggerla.
CIAO
magari è solo in DX9 che l'AA per come è concepito non rende, in DX10 potrebbe cambiare.
IMHO peggiorerà, perchè gli sp saranno ancora più impegnati rispetto a quanto lo sono ora con i giochi dx9.
Secondo me dobiiamo abituarci a questo decadimento prestazionale con AA. Succederà anche a nvidia. Anche loro dovranno calcolare l'AA tramite sp prima o poi...
spero davvero che nn sia così :confused: nn posso credere che quei ... hanno fatto un'architettura così di M, mi sembra molto strano :confused:
magari è solo in DX9 che l'AA per come è concepito non rende, in DX10 potrebbe cambiare.
Potrebbe essere...
Oppure, se nei giochi DX10 si richiedesse esclusivamente l'uso dell'AA via shaders (visto che pure le schede nVidia dovrebbero essere capaci di gestirlo), allora la situazione potrebbe riequilibrarsi.
La questione è che si è capito fin dall'inizio che l'AA via shaders ha un impatto maggiore sulle performance rispetto al normale resolve via ROPs: per ora chi continua a farlo col "vecchio metodo" ha un notevole vantaggio prestazionale.
Non è "un'architettura di M", si sono solo forse anticipati troppo i tempi per alcune soluzioni:
- l'AA via shaders richiede una potenza notevole di calcolo (per ora), ed il margine non elevatissimo di potenza che ha R600 rispetto a G80GTX non basta a colmare il gap con il MSAA resolve "classico"
- la tessellation unit è un plus che si rivelerà tale forse tra un anno o più
- idem per le supposte superiori capacità nei GS
- idem per l'architettura più adatta a gestire gli shaders lunghi
- l'architettura usata è più indicata per processi a 65nm o inferiori
- ecc...
IMHO peggiorerà, perchè gli sp saranno ancora più impegnati rispetto a quanto lo sono ora con i giochi dx9.
Secondo me dobiiamo abituarci a questo decadimento prestazionale con AA. Succederà anche a nvidia. Anche loro dovranno calcolare l'AA tramite sp prima o poi...
Infatti. ;)
nico88desmo
26-06-2007, 09:36
IMHO peggiorerà, perchè gli sp saranno ancora più impegnati rispetto a quanto lo sono ora con i giochi dx9.
Secondo me dobiiamo abituarci a questo decadimento prestazionale con AA. Succederà anche a nvidia. Anche loro dovranno calcolare l'AA tramite sp prima o poi...
Ma perchè hanno deciso di implementare l'aa mediante gli shader?
Compatibilità con tutti i giochi? Per le prestazioni non sicuramente, quindi io non riesco a capire perchè alla Ati hanno deciso di fare l'aa con gli shader...non riesco proprio a capirlo sinceramente.
pierluigi86
26-06-2007, 09:37
ma non si diceca che l' AA nei giochi dx10 non esistesse?
ma non si diceca che l' AA nei giochi dx10 non esistesse?
appunto per questo lo si fà calcolare dagli shader :asd:
Scrambler77
26-06-2007, 09:42
Secondo me dobiiamo abituarci a questo decadimento prestazionale con AA. Succederà anche a nvidia. Anche loro dovranno calcolare l'AA tramite sp prima o poi...
:mc:
leoneazzurro
26-06-2007, 09:43
ma fra 6 mesi sar già vecchia...cmq ho notato che hanno individuato molti problemi(non riguardanti giochi) se si legge nel sito ati e dicono che verranno risolti nei 7.8...penso che nei 7.7 ottimizzeranno molto il lato performance xkè se così non sarà.....:bsod:
Purtroppo le prime schede con un'architettura nuova andranno sempre meglio dopo diversi mesi che non all'uscita. Ricordiamoci casi come la stessa NV40, che all'inizio prestazionalmente sembrava non rendere in D3D come le ATI X800 (esemplare il caso di Half-Life 2), mentre via via che i drivers si affinavano il gap prestazionale in D3d si riduceva o ribaltava.
Probabilmente in DX9 R600 non andrà mai (mediamente) come una GTX, comunque. Ma il divario tra qualche mese sarà probabilmente più ridotto, soprattutto in AA dove c'è molto da ottimizzare. Però queste cose bene o male erano state dette già diverso tempo fa.
Ma perchè hanno deciso di implementare l'aa mediante gli shader?
Compatibilità con tutti i giochi? Per le prestazioni non sicuramente, quindi io non riesco a capire perchè alla Ati hanno deciso di fare l'aa con gli shader...non riesco proprio a capirlo sinceramente.
E' una richiesta delle DX10, garantiranno maggiore qualità visiva (infatti l'AA di R600 è migliore di quello di G80, stando ai test visti finora) e una migliore scalabilità, grazie alla possibilità di implementare custom filters per pixel.
:mc:
Risposta come al solito pregnante. :rolleyes:
leoneazzurro
26-06-2007, 10:01
E' una richiesta delle DX10, garantiranno maggiore qualità visiva (infatti l'AA di R600 è migliore di quello di G80, stando ai test visti finora) e una migliore scalabilità, grazie alla possibilità di implementare custom filters per pixel.
In realtà le DX10 chiedono la POSSIBILITA' di gestire l'AA tramite shader, non che debba essere fatto per forza tramite shader. Questo perchè l'AA "tradizionale" altro non fa che effettuare una media dei valori dei subpixel, il che in molti casi (utilizzo di HDR, gradienti non lineari e funzioni FP complesse), non è abbastanza perchè introduce degli "errori" che possono portare a degli artefatti grafici e comunque ad un risultato non naturale. Con lo "shader AA" invece gli sviluppatori potranno definire un AA "corretto" in tutti i casi.
nn saprei cosa dirvi, mi spiace, ma.... sono uguali come prestazioni agli 8.81 (beta e non), e quindi ovviamente anche il problema dell AA è uguale a prima, davvero nn commento il lavoro di ati o mi bannate
veramente dai forum in giro sotto vista ci sono aumenti di prestazioni un po su tutti i fronti....
:mc:
Io ritengo che nVidia abbia fatto la scelta migliore al momento.
Ha calcolato che nel periodo di tempo in cui G80 sarebbe stato al top, non ci sarebbero stati molti giochi dove l'AA tradizionale non avrebbe funzionato.
Sono anche convinto che ATI abbia fatto il passo più lungo della gamba. Nel senso che avrebbero potuto immaginare che il numero dei loro sp, in relazione alla loro architettura, non sarebbe stato sufficente a garantire framerate accettabili con AA attivato. Dovevano mettercene di più. Ma mettercene di più avrebbe significato più consumi, più calore, più rumore...quindi appunto, imho, hanno fatto il passo più lungo della gamba.
Mi aspetto dalle prossime generazioni di VGA (molto più dx10 oriented) un numero di sp nettamente superiore, per potersi far carico di AAx4 for free...
vedremo...
Ciò non toglie che anche nVidia dovrà per forza di cosa passare a questo modo di applicare AA, che tu lo voglia o no. E quando inizierà a farlo, sarà presumibilmente indietro nello sviluppo di tale soluzione rispetto ad ATI che la starà usando da tempo.
veramente dai forum in giro sotto vista ci sono aumenti di prestazioni un po su tutti i fronti....
C'è da dire che su Vista era decisamente meno performante rispetto ad xp. C'è stato un riequilibrio di prestazioni fra i due OS.
gianni1879
26-06-2007, 10:18
Questa è una recensione di un'amico di un altro forum, molto molto dettagliata
RECENSIONEHD2900XT (http://www.hwstation.net/recensioni/sapphire_radeon_hd_x2900xt_512mb/introduzione.html)
Provate a leggerla.
CIAO
l'avevo già postata io ;)
gianni1879
26-06-2007, 10:21
veramente dai forum in giro sotto vista ci sono aumenti di prestazioni un po su tutti i fronti....
qualche link??
ragazzi se volete testare i nuovi caty fatelo sui giochi e non sul 3dmark05 o 06.
la vga è gia moltocompetitiva in questo test a livello se non superiore alla 8800gtx.
ergo aumenti di 10-500pnt sono poco indicativi in un test straottimizzato.
come ho detto prima in un post molto lungo la vga a default ha gia raggiunto la 8800gtx il problema è con i filtri.
devono implementare al meglio la gestione del ringbus a 512bit che per ammissione di uno dei pr c'è ancora da lavorare e tirar fuori molto(adesso si basano ancora sulla gestione del ringbus a 256bit delle r5x0)
e devono trovare sto sistema di alleggerire l'impatto dell'aa con i titoli fulldx9 visto che mal digeriscono l'aa in shader.
Kharonte85
26-06-2007, 10:26
Io ritengo che nVidia abbia fatto la scelta migliore al momento.
Ha calcolato che nel periodo di tempo in cui G80 sarebbe stato al top, non ci sarebbero stati molti giochi dove l'AA tradizionale non avrebbe funzionato.
Sono anche convinto che ATI abbia fatto il passo più lungo della gamba. Nel senso che avrebbero potuto immaginare che il numero dei loro sp, in relazione alla loro architettura, non sarebbe stato sufficente a garantire framerate accettabili con AA attivato. Dovevano mettercene di più. Ma mettercene di più avrebbe significato più consumi, più calore, più rumore...quindi appunto, imho, hanno fatto il passo più lungo della gamba.
Mi aspetto dalle prossime generazioni di VGA (molto più dx10 oriented) un numero di sp nettamente superiore, per potersi far carico di AAx4 for free...
vedremo...
Quoto...quando r-600 sara' maturata probabilmente sara' gia' vecchia, e in piu' non per gufarla a chi l'ha comprata o chi ha intenzione di prenderla ma ho la sensazione che la tanto decantata tessellation unit su questa generazioni di schede AMD-ATI si rivelera' inutile visti i tempi di sviluppo dei giochi...
Intanto ho fatto questo:
in opengl ci sono diversi errori di visualizzazione e allora ho lasciato perdere
Allora ho provato stalker
edit: sono sempre su vista x64
Beh ma in confronto ai 7.5??? Ci sono incrementi o no?
In realtà le DX10 chiedono la POSSIBILITA' di gestire l'AA tramite shader, non che debba essere fatto per forza tramite shader. Questo perchè l'AA "tradizionale" altro non fa che effettuare una media dei valori dei subpixel, il che in molti casi (utilizzo di HDR, gradienti non lineari e funzioni FP complesse), non è abbastanza perchè introduce degli "errori" che possono portare a degli artefatti grafici e comunque ad un risultato non naturale. Con lo "shader AA" invece gli sviluppatori potranno definire un AA "corretto" in tutti i casi.
SONO ANNI che si dice che l'AA dovrà diventare parte del motore grafico del gioco, è un richiesta lecita e nello stesso tempo è la strada obbligata perchè andando a introdurre tutti i nuovi metodi di rendering e di post processing, la scheda video non potrà più "sprecare" milioni di transistor per un AA fisso per quanto programmabile via hardware.
AA che non funzionano come abbiamo visto in numerosi casi con HDR e nuovi effetti dx10. Quindi che si fa? Il motore grafico si fa fare il suo bel AA dagli shaders...che a sto punto diventa una AA quasi a basso livello, e quindi che non va a cozzare contro gli eventuali effetti di post processing.
Per ora è solo una richiesta, ma basta leggersi l'intervista a quello di Epic su Unreal 3....
Scrambler77
26-06-2007, 10:30
Io ritengo che nVidia abbia fatto la scelta migliore al momento.
Ha calcolato che nel periodo di tempo in cui G80 sarebbe stato al top, non ci sarebbero stati molti giochi dove l'AA tradizionale non avrebbe funzionato.
Sono anche convinto che ATI abbia fatto il passo più lungo della gamba. Nel senso che avrebbero potuto immaginare che il numero dei loro sp, in relazione alla loro architettura, non sarebbe stato sufficente a garantire framerate accettabili con AA attivato. Dovevano mettercene di più. Ma mettercene di più avrebbe significato più consumi, più calore, più rumore...quindi appunto, imho, hanno fatto il passo più lungo della gamba.
Mi aspetto dalle prossime generazioni di VGA (molto più dx10 oriented) un numero di sp nettamente superiore, per potersi far carico di AAx4 for free...
vedremo...
Ciò non toglie che anche nVidia dovrà per forza di cosa passare a questo modo di applicare AA, che tu lo voglia o no. E quando inizierà a farlo, sarà presumibilmente indietro nello sviluppo di tale soluzione rispetto ad ATI che la starà usando da tempo.
Quoto tutto ciò che hai scritto. Infatti la mia emoticon è riferita al fatto che siccome anche nvidia perderà prestazioni a causa dell'AA, ciò costituisce una "consolazione" o addirittura una giustificazione per chi possiede R600, quando invece non lo è.
Si sbandiera ai 4 venti che R600 è avanti anni luce rispetto a G80 in termini architetturali quando poi cade sulla banale applicazione dei filtri, dove la sua architettura avveniristica avrebbe dovuto dare il meglio di se. E non sono di certo io a dire che R600 è stato costruito in prospettiva DX10...
Poi aspettiamo sto miracolo prima sulla release dei drivers ufficiali, poi sui 7.5, poi 7.6, ed adesso leggo che addirittura per natale vedremo funzionare bene R600 sui titoli dx9, quando ormai cominceranno ad estinguersi.
Franx1508
26-06-2007, 10:32
a me pare che nella rece postata più su la 2900xt è milgiorata coi 7.6,diciamo che qui alcuni ciarlano...
ragazzi se volete testare i nuovi caty fatelo sui giochi e non sul 3dmark05 o 06.
la vga è gia moltocompetitiva in questo test a livello se non superiore alla 8800gtx.
ergo aumenti di 10-500pnt sono poco indicativi in un test straottimizzato.
come ho detto prima in un post molto lungo la vga a default ha gia raggiunto la 8800gtx il problema è con i filtri.
No non è proprio così. Che i numeri che sputa fuori il 3dmark non valgano niente lo si sa... ma il delta, le differenze di questi numeri, relative a situazione con driver precedente, invece è un ottimo banco di prova per mostrare incrementi e ottimizzazioni. Quindi se in 3d mark c'è un incremento a parità di impostazioni è perchè appunto qualcosa è stato corretto, poco o meno non importa...l'importante è che l'abbiano fatto...
Io ritengo che nVidia abbia fatto la scelta migliore al momento.
Ha calcolato che nel periodo di tempo in cui G80 sarebbe stato al top, non ci sarebbero stati molti giochi dove l'AA tradizionale non avrebbe funzionato.
Sono anche convinto che ATI abbia fatto il passo più lungo della gamba. Nel senso che avrebbero potuto immaginare che il numero dei loro sp, in relazione alla loro architettura, non sarebbe stato sufficente a garantire framerate accettabili con AA attivato. Dovevano mettercene di più. Ma mettercene di più avrebbe significato più consumi, più calore, più rumore...quindi appunto, imho, hanno fatto il passo più lungo della gamba.
Mi aspetto dalle prossime generazioni di VGA (molto più dx10 oriented) un numero di sp nettamente superiore, per potersi far carico di AAx4 for free...
vedremo...
Ciò non toglie che anche nVidia dovrà per forza di cosa passare a questo modo di applicare AA, che tu lo voglia o no. E quando inizierà a farlo, sarà presumibilmente indietro nello sviluppo di tale soluzione rispetto ad ATI che la starà usando da tempo.
quoto...imho è un motivo in più per chi ha una buona scheda DX9 ora per non cambiare e attendere gli sviluppi :)
No non è proprio così. Che i numeri che sputa fuori il 3dmark non valgano niente lo si sa... ma il delta, le differenze di questi numeri, relative a situazione con driver precedente, invece è un ottimo banco di prova per mostrare incrementi e ottimizzazioni. Quindi se in 3d mark c'è un incremento a parità di impostazioni è perchè appunto qualcosa è stato corretto, poco o meno non importa...l'importante è che l'abbiano fatto...
Si, ma sai benissimo che un'ottimizzazione per il 3dmark potrebbe essere ininfluente per i giochi. Bisognerebbe che i giochi venissero programmati come il 3dmark, e, a quanto pare dai risultati, non è proprio così.
Cmq in generale le prestazioni sono un po' migliorate, soprattutto in vista. Il prezzo della vga scende, quindi resta un prodotto competitivo.
Si può essere felici avendo acquistato sia una 8800GTS che una 2900XT. Dipende molto dai giochi che uno compra.
Free Gordon
26-06-2007, 11:24
io vedo 4200rpm sulla quarta riga..
stesso avvertimento per Baio73, sistemare grazie.
Che browser usi??
Io uso Opera e ho il desktop a 1024 (col portatile in sign) e sono 3 righe.
E' da 6 mesi che è così la mia firma, cmq se è colpa di Opera (ma mi pare strano) la cambio. ;)
Che browser usi??
Io uso Opera e ho il desktop a 1024 (col portatile in sign) e sono 3 righe.
E' da 6 mesi che è così la mia firma, cmq se è colpa di Opera (ma mi pare strano) la cambio. ;)
io con FF e IE7 ti vedo perfettamente a norma a 1024... forse il moderatore non ha la dimensione caratteri a misura standard, infatti aumentandola sfori subito....
3DMark79
26-06-2007, 11:44
Per quei pochi o niente che utilizzano la scheda hd2900xt in modalità CrossFire e stato rilasciato un hotfix dei driver 7.6 per risolvere i problemi di incompatibilità.
http://www.tomshw.it/news.php?newsid=10567
Download
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=28188
leoneazzurro
26-06-2007, 11:45
Io ritengo che nVidia abbia fatto la scelta migliore al momento.
Ha calcolato che nel periodo di tempo in cui G80 sarebbe stato al top, non ci sarebbero stati molti giochi dove l'AA tradizionale non avrebbe funzionato.
Sono anche convinto che ATI abbia fatto il passo più lungo della gamba. Nel senso che avrebbero potuto immaginare che il numero dei loro sp, in relazione alla loro architettura, non sarebbe stato sufficente a garantire framerate accettabili con AA attivato. Dovevano mettercene di più. Ma mettercene di più avrebbe significato più consumi, più calore, più rumore...quindi appunto, imho, hanno fatto il passo più lungo della gamba.
Mi aspetto dalle prossime generazioni di VGA (molto più dx10 oriented) un numero di sp nettamente superiore, per potersi far carico di AAx4 for free...
vedremo...
Ciò non toglie che anche nVidia dovrà per forza di cosa passare a questo modo di applicare AA, che tu lo voglia o no. E quando inizierà a farlo, sarà presumibilmente indietro nello sviluppo di tale soluzione rispetto ad ATI che la starà usando da tempo.
Beh, ad quello che vedo, a parte casi abbastanza sporadici, direi che tutte le schede di fascia alta a risoluzioni "umane" (1280x1024, 1600x1200) danno FPS accettabili anche con AA. E comunque in realtà il problema dello shader AA resolve non è detto che sia così pesante IN SE, ad esempio questo è un commento molto interessante su B3D:
http://forum.beyond3d.com/showpost.php?p=1021807&postcount=179
che stima la potenza di calcolo assorbita in un "caso estremo" per l'AA resolve. (Notare che anche i commenti successivi considerino questo un caso, appunto, estremo. Il problema fondamentale con l'AA è l'ottimizzazione della schedulazione dei calcoli e il -relativamente- ridotto numero di unità texture e ROPs, nonchè -e qui c'è un punto fondamentale- la gestione del ring bus che deve essere ottimizzata per l'AA. Da notare poi una cosa interessante, ossia che R600 sembra essere particolarmente ottimizzato dal punto di vista del supporto al formato floating point per texture e blending, ad esempio è vero che R600 ha 16 texture unit e quindi si possono avere un massimo di 16 texture filtrate per clock, contro le 64 di G80, ma è anche vero che rimangono 16 anche filtrando in formato FP32, mentre in G80 i 64 sample filtrati valgono per il formato INT8, che scendono a 32 per il FP16 e a 16 per il FP32.
La stessa cosa, se non erro, vale per le ROPs, dove i samples/s sono inferiori a quelli di G80 ma non ci dovrebbe essere perdita di prestazioni, banda permettendo, utilizzando formati FP16 e FP32. Quindi in giochi con grande utilizzo di questi formati, con HDR in FP16 o FP32, R600 non dovrebbe comportarsi affatto male.
SONO ANNI che si dice che l'AA dovrà diventare parte del motore grafico del gioco, è un richiesta lecita e nello stesso tempo è la strada obbligata perchè andando a introdurre tutti i nuovi metodi di rendering e di post processing, la scheda video non potrà più "sprecare" milioni di transistor per un AA fisso per quanto programmabile via hardware.
AA che non funzionano come abbiamo visto in numerosi casi con HDR e nuovi effetti dx10. Quindi che si fa? Il motore grafico si fa fare il suo bel AA dagli shaders...che a sto punto diventa una AA quasi a basso livello, e quindi che non va a cozzare contro gli eventuali effetti di post processing.
Per ora è solo una richiesta, ma basta leggersi l'intervista a quello di Epic su Unreal 3....
Semplicemente stavo precisando che quella delle DX10 è una specifica che non preclude l'utilizzo del MSAA tradizionale, e che la scelta di Nvidia di supportare entrambi nel breve periodo paga di più.
(una precisazione, poi, che non c'entra col tuo discorso: ho notato come molti parlino di R600 come contenente un numero maggiore di transistors rispetto a G80, ma questo vale solo se si considera il die principale, ma G80 è composto in realtà da 2 chip, ossia la GPU propriamente detta e il chip NVIO, le cui funzionalità invece sono integrate nel die principale di R600).
davide155
26-06-2007, 11:48
Ma il problema delle freq in 2D con i giochi è stato risolto oppure no??????
No non è proprio così. Che i numeri che sputa fuori il 3dmark non valgano niente lo si sa... ma il delta, le differenze di questi numeri, relative a situazione con driver precedente, invece è un ottimo banco di prova per mostrare incrementi e ottimizzazioni. Quindi se in 3d mark c'è un incremento a parità di impostazioni è perchè appunto qualcosa è stato corretto, poco o meno non importa...l'importante è che l'abbiano fatto...
il discorso che se vuoi vedere dove sn migliorati i dvr lo vedi nei giochi dove la vga inspiegabilmente arrancava.
nel 3dmark06 la 2900 è superiore ad una 8800gtx ma nei giochi non è cosi
nel 06 con aa attivato nemmeno.
ottenere 100punti in + su un test dove la vga è gia competitiva non serve eccessivamente.
Beh, ad quello che vedo, a parte casi abbastanza sporadici, direi che tutte le schede di fascia alta a risoluzioni "umane" (1280x1024, 1600x1200) danno FPS accettabili anche con AA. E comunque in realtà il problema dello shader AA resolve non è detto che sia così pesante IN SE, ad esempio questo è un commento molto interessante su B3D:
http://forum.beyond3d.com/showpost.php?p=1021807&postcount=179
che stima la potenza di calcolo assorbita in un "caso estremo" per l'AA resolve. (Notare che anche i commenti successivi considerino questo un caso, appunto, estremo. Il problema fondamentale con l'AA è l'ottimizzazione della schedulazione dei calcoli e il -relativamente- ridotto numero di unità texture e ROPs, nonchè -e qui c'è un punto fondamentale- la gestione del ring bus che deve essere ottimizzata per l'AA. Da notare poi una cosa interessante, ossia che R600 sembra essere particolarmente ottimizzato dal punto di vista del supporto al formato floating point per texture e blending, ad esempio è vero che R600 ha 16 texture unit e quindi si possono avere un massimo di 16 texture filtrate per clock, contro le 64 di G80, ma è anche vero che rimangono 16 anche filtrando in formato FP32, mentre in G80 i 64 sample filtrati valgono per il formato INT8, che scendono a 32 per il FP16 e a 16 per il FP32.
La stessa cosa, se non erro, vale per le ROPs, dove i samples/s sono inferiori a quelli di G80 ma non ci dovrebbe essere perdita di prestazioni, banda permettendo, utilizzando formati FP16 e FP32. Quindi in giochi con grande utilizzo di questi formati, con HDR in FP16 o FP32, R600 non dovrebbe comportarsi affatto male.
Semplicemente stavo precisando che quella delle DX10 è una specifica che non preclude l'utilizzo del MSAA tradizionale, e che la scelta di Nvidia di supportare entrambi nel breve periodo paga di più.
(una precisazione, poi, che non c'entra col tuo discorso: ho notato come molti parlino di R600 come contenente un numero maggiore di transistors rispetto a G80, ma questo vale solo se si considera il die principale, ma G80 è composto in realtà da 2 chip, ossia la GPU propriamente detta e il chip NVIO, le cui funzionalità invece sono integrate nel die principale di R600).
leo la sai una cosa mi sa che quando ati parlava di aa2x olways on mi sa che si riferiva propio al discordo della rop in fp32 partendo dal presupposto che visto che tanto sono altamente specializzato nel conto degli shader elaborare con un aa2x in shader non mi porta alcuna perdita di prestazioni ovviamente credo che qui venissi anche del marcheting quel 2x always on fosse riferito non alle prestazioni di r600 con e senza aa2x ma ad un confronto con g80 dove per la struttura un aa2x lo accusa cmq visto che lo elabora ancora come un aa normale.
effettivamente una cosa che ho sempre accusato al progetto g80 è stato fare il padellone a 90nm e lasciare il tmds fuori cosi se ti si rompe non sai se è il die principale va bene e quello è rotto oppure il tmds è rotto e il die principale va bene.
cmq credo che la soluzione migliore a sto punto per ati è copiare nvidia e fare come all'epoca delle 5800 un bel compilatore nei dvr che cerca di riportare le chiamate dell'aa dx9 in maniera + digeribile per l'aa in shader di r600
azz ma sta skeda video sarà competitiva nel 2008 forse, quando oramai ci saranno gpu nuove di sto passo
Free Gordon
26-06-2007, 12:52
da queste rece si vedono delle linee guida molto marcate sul progetto r600. sicuramente una archidettura innovativa virtualmente di infinito potenziale in dx10 purtroppo lacune soluzioni tecniche sembrano mal sposarsi con l'attuale e da poco passata generazione di giochi dx9 per via dell'innovativo sistema di fare AA di r600. molto andrà affinato anche con i dvr visto che le nvidia utilizzano ancora un controler crossbar rodato da anni mentre ati appena ha imparato ad utilizzare un ringbus da 256bit sulla serie r5x0 ora si trova a dover tirare fuori il meglio dall'archidettura + complessa di un ringbus da 512bit.
Quoto.
Io credo cmq, che se avessero potuto inserire transistor per risolvere l'AA on hw.. l'avrebbero fatto. Invece le scelte che hanno fatto li hanno portati ad avere già oggi il chip più grosso in assoluto e con gran parte dell'hw sottosfruttato.
Vedremo con l'uscita dei 7.7 e successivi, ma più vado avanti e più penso che il progetto R600, nel periodo in cui è uscito, è solamente un costoso esercizio di stile e tecnologia... (che ha anche il suo perchè, volendo.. ma non è quello che vorrei vedere da un chip ATI. ;) ).
Non so quanti chip avranno venduto, ma personalmente, fossi stato in AMD avrei fatto uscire solo la fascia media e bassa ed in seguito avrei fatto uscire un chip ottimizzato solo con l'arrivo dei giochi che potevamo mostrare il suo vero potenziale.. ;)
Free Gordon
26-06-2007, 12:56
ma fra 6 mesi sar già vecchia...cmq ho notato che hanno individuato molti problemi(non riguardanti giochi) se si legge nel sito ati e dicono che verranno risolti nei 7.8...penso che nei 7.7 ottimizzeranno molto il lato performance xkè se così non sarà.....:bsod:
Mi metto già da ora in coda per la tua futura defenestrazione. :D
Sul prezzo possiamo trattare. :sofico:
Mi metto già da ora in coda per la tua futura defenestrazione. :D
Sul prezzo possiamo trattare. :sofico:
LoL
cmq efferivamente la tua firma è a 3 righe con il mio portatile a 1024:confused:
Free Gordon
26-06-2007, 13:03
Questo perchè l'AA "tradizionale" altro non fa che effettuare una media dei valori dei subpixel, il che in molti casi (utilizzo di HDR, gradienti non lineari e funzioni FP complesse), non è abbastanza perchè introduce degli "errori" che possono portare a degli artefatti grafici e comunque ad un risultato non naturale. Con lo "shader AA" invece gli sviluppatori potranno definire un AA "corretto" in tutti i casi.
Infatti non è rarissimo vedere scalette evidenti nei giochi con HDR attivo. E proprio nei "punti" dove l'HDR è più evidente. Sia su X1000 che su G80.
+Lonewolf+
26-06-2007, 13:03
Mi metto già da ora in coda per la tua futura defenestrazione. :D
Sul prezzo possiamo trattare. :sofico:
bwh...magari l'ho sparata grossa...cmq sto mandando mail ai tecnici, responsabili e pr ayi in cerca di risposte...
in ogni caso oggi vado a comprare shadowrun che è un titolo only for windows vista e pare(correggetemi se sbaglio) che sfrutti dx10...testo un po' che male nn fa...io cmq mi aspetto il massimo da qst architettura nel periodo che va da settembre a novembre che li la testeremo con tutti i nuovi titoloni che usciranno...in ogni caso penso che durante questo mese vedremo numerosi fix e correzioni prestazionali x la scheda...speriamo si diano da fare...
Free Gordon
26-06-2007, 13:04
Quoto...quando r-600 sara' maturata probabilmente sara' gia' vecchia, e in piu' non per gufarla a chi l'ha comprata o chi ha intenzione di prenderla ma ho la sensazione che la tanto decantata tessellation unit su questa generazioni di schede AMD-ATI si rivelera' inutile visti i tempi di sviluppo dei giochi...
Beh, c'è anche chi spende 350 euro e vuole tenersi per due anni almeno una scheda eh... :)
Ormai siamo giunti all'assurdo che dopo 6 mesi un upgrade è percepito come "necessario".. :(
+Lonewolf+
26-06-2007, 13:06
ma LP ha risolto i bachi con i 7.6?
Kharonte85
26-06-2007, 13:10
Beh, c'è anche chi spende 350 euro e vuole tenersi per due anni almeno una scheda eh... :)
a chi lo dici...
Ormai siamo giunti all'assurdo che dopo 6 mesi un upgrade è percepito come "necessario".. :(
Leggi meglio, ho detto che la tessellation unit si rilevera' inutile...r600 invecchiera' purtroppo velocemente come tutte le schede grafiche ma con l'handicap di non avere ad oggi driver maturi...
ma LP ha risolto i bachi con i 7.6?
Ti rispondo subito io non hanno risolto un emerito niente :D non so cosa abbiano fatto questo mese ma i bug presneti nei vari titoli restano ombre di coj effetto strano su half life 2 :stordita:
Free Gordon
26-06-2007, 13:11
Si può essere felici avendo acquistato sia una 8800GTS che una 2900XT. Dipende molto dai giochi che uno compra.
Oppure si potrebbe esser felici anche senza avere nè l'una nè l'altra! :D
Dico io non aumentano le prestazione con questa release ok, ma almeno togliete i vari bug :doh:
Kharonte85
26-06-2007, 13:13
Oppure si potrebbe esser felici anche senza avere nè l'una nè l'altra! :D
:asd:
dico io non aumentato le prestazione con questa release ok ma almeno togliete i vari bug :doh:
Qualcosa hanno sistemato, basta leggere la release note ;)
:asd:
Qualcosa hanno sistemato, basta leggere la release note ;)
Letta sinceramente migliorare half life2 a livello prestazionale...ma far rimanere quell'effetto stupido è inutile non ha senso :doh: Hanno migliorato anche altre cose ma per me momentaniamente inutili :rolleyes:
-Feanor-
26-06-2007, 13:40
bwh...magari l'ho sparata grossa...cmq sto mandando mail ai tecnici, responsabili e pr ayi in cerca di risposte...
in ogni caso oggi vado a comprare shadowrun che è un titolo only for windows vista e pare(correggetemi se sbaglio) che sfrutti dx10...testo un po' che male nn fa...io cmq mi aspetto il massimo da qst architettura nel periodo che va da settembre a novembre che li la testeremo con tutti i nuovi titoloni che usciranno...in ogni caso penso che durante questo mese vedremo numerosi fix e correzioni prestazionali x la scheda...speriamo si diano da fare...
ehm :stordita: ...non so come dirtelo ...ma shadowrun non sfrutta le dx10.. a tal propostito ho trovato qst topic su un forum http://www.nvnews.net/vbulletin/showthread.php?t=92407 ....è solo per vista unicamente per schifoso marketing come halo2...beh...fose ha un po piu di senso per la questione live con giocatori vista e xbox360....ma questo non giustifica assolutamente...i giochi con supporto dx10 qui...;) http://en.wikipedia.org/wiki/List_of_games_with_DirectX_10_support
3dmark fa 100 punti in più nel 2006, Dirt ha un framerate più stabile, Lost Planet restano i bachi, Oblivion viaggia a palla a braccetto con Stalker come prima ;)
Y2J Lionheart
26-06-2007, 13:46
3dmark fa 100 punti in più nel 2006, Dirt ha un framerate più stabile, Lost Planet restano i bachi, Oblivion viaggia a palla a braccetto con Stalker come prima ;)
confermo la situazione è questa, quindi nessun aumento prestazionale eclatante
confermo la situazione è questa, quindi nessun aumento prestazionale eclatante
Confermo anche io a livello di prestazioni per quanto riguarda i giochi non hanno fatto niente a parte half life2 testato da me, ma inutilmente ottimizzato perchè quell'effetto fastidioso che si presentava prima resta sempre :rolleyes:Ripeto togliete prima i bug dai giochi e poi li ottimizzate, e no ottimizzarli con i bug presenti :doh:
Y2J Lionheart
26-06-2007, 13:53
Confermo anche io a livello di prestazioni per quanto riguarda i giochi non hanno fatto niente a parte half life2 testato da me, ma inutilmente ottimizzato perchè quell'effetto fastidioso che si presentava prima resta sempre :rolleyes:Ripeto togliete prima i bug dai giochi e poi li ottimizzate, e no ottimizzarli con i bug presenti :doh:
Ma quella specie di nebbia in lontanaza è un bug? :asd:
io sto giocando per la prima volta HL2 e pensavo fosse normale :asd:
(in effetti mi sembrava strano:muro: )
Ma quella specie di nebbia in lontanaza è un bug? :asd:
io sto giocando per la prima volta HL2 e pensavo fosse normale :asd:
(in effetti mi sembrava strano:muro: )
Esettamente hai centrato in pieno è un bug dei driver ancora non tolto, cosa mi ottimizzi a fare Half life2? :doh:
di sto passo allora avrà driver ke la sfruttano quando sarà vekkia, o non è ke i driver non facciano + di tanto allora? un dubbio mi sorge. xè ke senso avrebbe allora buttare fuori nuove release se cambia pokissimo o nulla?? :doh:
Free Gordon
26-06-2007, 14:09
Ha calcolato che nel periodo di tempo in cui G80 sarebbe stato al top, non ci sarebbero stati molti giochi dove l'AA tradizionale non avrebbe funzionato. Sono anche convinto che ATI abbia fatto il passo più lungo della gamba. Nel senso che avrebbero potuto immaginare che il numero dei loro sp, in relazione alla loro architettura, non sarebbe stato sufficente a garantire framerate accettabili con AA attivato. Dovevano mettercene di più. Ma mettercene di più avrebbe significato più consumi, più calore, più rumore...quindi appunto, imho, hanno fatto il passo più lungo della gamba.
Nvidia fa sempre scelte "conservative", quella è la sua filosofia costruttiva.
E già con G80 s'è spinta molto in là, unificando gli shader.
Mi aspetto dalle prossime generazioni di VGA (molto più dx10 oriented) un numero di sp nettamente superiore, per potersi far carico di AAx4 for free...vedremo...
Non sarà mai "for free". Perchè le condizioni, in ambito pc, sono sempre diverse.
Su console si è potuto ottenere l'MSAA 4x "for free", solo utilizzando la res 720p e il tiling manuale. Ma un chip pc non si potrà mai trovare in queste situazioni ideali.
Ciò non toglie che anche nVidia dovrà per forza di cosa passare a questo modo di applicare AA, che tu lo voglia o no. E quando inizierà a farlo, sarà presumibilmente indietro nello sviluppo di tale soluzione rispetto ad ATI che la starà usando da tempo.
Questo è probabilissimo. Il primo gioco dx10 in cui vedremo attuarsi questo meccanismo è Bioshock, con a ruota UT3.
In quel caso, sarà interessante confrontare le prestazioni di G80 con quelle di R600. :D
+Lonewolf+
26-06-2007, 14:11
hanno risposto all mail così
"la ringraziamo x averci dato il suo supporto nell'individuazione dei problemi da lei riscontrati, verificheremo personalmente e ci scusiamo per l'accaduto.Le dovute ottimizzazioni arriveranno con le successive relase dei drivers dato che sugli ultimi ci siamo concentrati molto sui problemi di compatibilità con il sistema operativo.nelle successive relase noterà, lei come gli altri che riscontrano problemi, un progressivo aumento nella performance, specialmente con l'utilizzo dei vari filtraggi grafici,e vari bugfix(questo non so renderlo in italiano:asd:) che sulla serie 2Xxx saranno presenti in gran numero almeno fino alla relase di agosto, dove verranno totalmente eliminati.Per quanto riguarda inoltre la domanda da lei sollevata riguardante il ring-bus la informo del fatto che il team che si occupa dello sviluppo driver programmerà entro questo mese quasi sicuramente un ring-bus decente, che verrà via via migliorato nelle prossime relase.Ci scusiamo per l'accaduto e la invitiamo ad avere fiducia, non se ne pentirà."
distinti saluti
ale0bello0pr
26-06-2007, 14:13
hanno risposto all mail così
"la ringraziamo x averci dato il suo supporto nell'individuazione dei problemi da lei riscontrati, verificheremo personalmente e ci scusiamo per l'accaduto.Le dovute ottimizzazioni arriveranno con le successive relase dei drivers dato che sugli ultimi ci siamo concentrati molto sui problemi di compatibilità con il sistema operativo.nelle successive relase noterà, lei come gli altri che riscontrano problemi, un progressivo aumento nella performance, specialmente con l'utilizzo dei vari filtraggi grafici,e vari bugfix(questo non so renderlo in italiano:asd:) che sulla serie 2Xxx saranno presenti in gran numero almeno fino alla relase di agosto, dove verranno totalmente eliminati.Per quanto riguarda inoltre la domanda da lei sollevata riguardante il ring-bus la informo del fatto che il team che si occupa dello sviluppo driver programmerà entro questo mese quasi sicuramente un ring-bus decente, che verrà via via migliorato nelle prossime relase.Ci scusiamo per l'accaduto e la invitiamo ad avere fiducia, non se ne pentirà."
distinti saluti
questa frase non mette altro che hype... :asd:
+Lonewolf+
26-06-2007, 14:14
http://www.hwupgrade.it/forum/showpost.php?p=17677083&postcount=28
l'ho inviata a quell'ora
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.