PDA

View Full Version : Radeon HD 2900 XT da 1 Gbyte anche per Sapphire


Redazione di Hardware Upg
22-06-2007, 10:30
Link alla notizia: http://www.hwupgrade.it/news/skvideo/21675.html

Prezzo particolarmente aggressivo per la nuova proposta top di gamma di Sapphire, basata su GPU R600

Click sul link per visualizzare la notizia.

ramarromarrone
22-06-2007, 10:37
sarei curioso di vedere i bench di questa scheda....paolo corsini che aspetti??????? :)

Catan
22-06-2007, 10:41
come immaginavo lo dicevo da un pò tutti a seguire la diamond ma invece per il territorio europeo se qualcuno voleva la versione da 1gb doveva aspettare la sapphire.

JohnPetrucci
22-06-2007, 10:41
sarei curioso di vedere i bench di questa scheda....paolo corsini che aspetti??????? :)
Non ti attendere stravolgimenti rispetto alla versione da 512mb, vedrai se non ho ragione....:O

ramarromarrone
22-06-2007, 10:45
una scheda che va già bene per il prezzo a cui è offerta cn memorie + veloci può solo migliorare ,certo il prezzo aumenta ma nel rapporto prezzo/prestazioni credo (spero) sarà migliore di nvidia

Crisidelm
22-06-2007, 10:45
Radoen? Almeno il titolo corretto...

-ArtOfRight-
22-06-2007, 10:49
Non ti attendere stravolgimenti rispetto alla versione da 512mb, vedrai se non ho ragione....:O

Già anche secondo me i risultati non si discosteranno molto dalla versione con 512Mb, che se non sbaglio overcloccata raggiungeva i 2GHz con le memorie.....resta da vedere il margine di oc delle gddr4, ma in ogni caso non si andrà mai tanto in là....

E poi a quella cifra si compra una 8800gtx........povera ATI......

hibone
22-06-2007, 10:50
beh io ho visto case disponibili sul mercato francese ma non su quello
italiano...

da noi il prezzo aumenterà sicuramente di un paio di 100 euro grazie all'aiuto di maga maghella....

JohnPetrucci
22-06-2007, 10:51
una scheda che va già bene per il prezzo a cui è offerta cn memorie + veloci può solo migliorare ,certo il prezzo aumenta ma nel rapporto prezzo/prestazioni credo (spero) sarà migliore di nvidia
Questo è un tuo parere personale.
Imho la 8800 gts 640mb è più conveniente nel rapporto prezzo/prestazioni.
Il motivo?
Va uguale, scalda meno, consuma meno ed è meno rumorosa, e il prezzo è inferiore seppur di qualche decina di euro, basta andare su trovaprezzi.;)

Mparlav
22-06-2007, 10:52
Non solo non ci saranno stravolgimenti, se non per quei 2-3 giochi che usano più di 512Mb (tipo Colin Mcrae: Dirt)
Il problema è che ora non dovrà vedersela più con con la 8800GTS ma con la GTX, che tra l'altro si trova a meno di 500 euro.
Qui il gioco si fa' duro :-)

Chissà se Hwupgrade farà in tempo a testarla già con i Catalyst 7.6, che dovrebbero uscire nei prossimi gg.

JohnPetrucci
22-06-2007, 10:54
Non solo non ci saranno stravolgimenti, se non per quei 2-3 giochi che usano più di 512Mb (tipo Colin Mcrae: Dirt)
Il problema è che ora non dovrà vedersela più con con la 8800GTS ma con la GTX, che tra l'altro si trova a meno di 500 euro.
Qui il gioco si fa' duro :-)

Chissà se Hwupgrade farà in tempo a testarla già con i Catalyst 7.6, che dovrebbero uscire nei prossimi gg.
Concordo in pieno.;)

MaRtH
22-06-2007, 10:56
Teoricamente i moduli si potranno spingere a 2200Mhz, sempre se saranno gli stessi chip annunciati da 0.9ns...

Come prestazioni IMHO non si discosterà più di tanto dalla 512MB, anche se 350Mhz non sono bruscolini, diciamo un 10% in più al massimo...

Infatti si è notato come negli ultimi Radeon sia la frequenza del core la più importante, e non come accadeva una volta il contrario...

Spero di sbagliarmi, davvero...

In ogni caso per questa VGA un prezzo sui 420€ o meno mi sembra giusto...

Giusto il tempo che arrivi nei migliori shop italiani, poi vedrete come si abbasserà... ;)

Racer89
22-06-2007, 10:58
Non solo non ci saranno stravolgimenti, se non per quei 2-3 giochi che usano più di 512Mb (tipo Colin Mcrae: Dirt)
Il problema è che ora non dovrà vedersela più con con la 8800GTS ma con la GTX, che tra l'altro si trova a meno di 500 euro.
Qui il gioco si fa' duro :-)

Chissà se Hwupgrade farà in tempo a testarla già con i Catalyst 7.6, che dovrebbero uscire nei prossimi gg.

+ di 512 mb :eek:
dove lo hai letto?

sasyultrasnapoli
22-06-2007, 11:00
sisi questa skeda sara alla pari di una 8800GTX.

Ve lo dice il sottoscritto

-ArtOfRight-
22-06-2007, 11:02
+ di 512 mb :eek:
dove lo hai letto?

Bè direi che dipende sopratutto dalla risoluzione, e penso che 512 siano più che sufficienti fino a 1600x1200

Comunque Colin Dirt ha un motore grafico molto pesante (bello s'intende), però almeno la demo, ha ucciso le prestazioni della mia 1950pro con 256Mb: in tutti gli altri giochi (oblivion per dirne uno) riuscivo a giocare con i dettagli quasi al max.......
[tengo la ris a 1680x1050]

PsyCloud
22-06-2007, 11:02
è sempre molto intelligente testare una scheda pensata quasi esclusivamente per le DX 10 su giochi DX 9 e paragonarla ad una scheda IBRIDA che è compatibile DX10 ma di fatto è una DX9 potenziata.

Come testare una F430 su sterrato paragonandola ad una Impreza WRX. Indovina chi vince?

Attualmente, guardando i giochi attuali, è meglio NVIDIA dato che è più performante sulle DX9 oltretutto considerando che il 95% dei titoli che usciranno entro fine anno saranno ancora DX9. Questo non sighifica che la GTX sia migliore in senso assoluto, appunto perchè attualmente non ci sono ancora test attendibili relativamente alle DX10, quando ci saranno tali test, vedremo. fino ad allora conserviamoci il dubbio e smettiamo di tollare.

JohnPetrucci
22-06-2007, 11:03
sisi questa skeda sara alla pari di una 8800GTX.

Ve lo dice il sottoscritto
SOGNA.....:cool:

radoen
22-06-2007, 11:03
piccola imprecisione io non sono dotato di 1 gb di r am e non sono nemmeno made in ATI, però forse le RADEON si :)

Racer89
22-06-2007, 11:06
Bè direi che dipende sopratutto dalla risoluzione, e penso che 512 siano più che sufficienti fino a 1600x1200

Comunque Colin Dirt ha un motore grafico molto pesante (bello s'intende), però almeno la demo, ha ucciso le prestazioni della mia 1950pro con 256Mb: in tutti gli altri giochi (oblivion per dirne uno) riuscivo a giocare con i dettagli quasi al max.......
[tengo la ris a 1680x1050]

e i 320mb della 8800 alla tua risoluzione?

overclock80
22-06-2007, 11:12
SOGNA.....:cool:

Ok, aspettiamo di vederla sul mercato ma mi sa che non è un "Sogno"....a vedere questi risultati di una versione meno potente della stessa famiglia http://uk.theinquirer.net/?article=40495

dado1979
22-06-2007, 11:13
e i 320mb della 8800 alla tua risoluzione?
Io con la nuova patch a Dirt tengo todo al max (ma la patch toglie le ombre Ultra e le mette su Alto).

Mparlav
22-06-2007, 11:16
Non leggo: testo :-)

Con la patch 1.1 che migliora qualcosa in qualità "Ultra" non so' se è cambiato qualcosa.

Per ora mi sono limitato a provare la demo.

Racer89
22-06-2007, 11:21
Io con la nuova patch a Dirt tengo todo al max (ma la patch toglie le ombre Ultra e le mette su Alto).

a che risoluzione? va fluido?

Mister24
22-06-2007, 11:21
è sempre molto intelligente testare una scheda pensata quasi esclusivamente per le DX 10 su giochi DX 9 e paragonarla ad una scheda IBRIDA che è compatibile DX10 ma di fatto è una DX9 potenziata.

Come testare una F430 su sterrato paragonandola ad una Impreza WRX. Indovina chi vince?

Attualmente, guardando i giochi attuali, è meglio NVIDIA dato che è più performante sulle DX9 oltretutto considerando che il 95% dei titoli che usciranno entro fine anno saranno ancora DX9. Questo non sighifica che la GTX sia migliore in senso assoluto, appunto perchè attualmente non ci sono ancora test attendibili relativamente alle DX10, quando ci saranno tali test, vedremo. fino ad allora conserviamoci il dubbio e smettiamo di tollare.

Io non seguo il tuo ragionamento, le schede video fatte per giocare devono essere testate con i giochi attualmente in commercio e non con quelli che non ci sono perché usciranno tra un anno. Riprendendo il tuo paragone automobilistico se tutte le strade del mondo fossero sterrate la F430 farebbe :Puke:

gianni1879
22-06-2007, 11:32
piccola imprecisione io non sono dotato di 1 gb di r am e non sono nemmeno made in ATI, però forse le RADEON si :)

azz ti hanno copiato il nick, fagli causa :asd:

HackaB321
22-06-2007, 11:43
Beh di sicuro le memorie non sono un problema per questa scheda visto che dimensioni, bus e frequenza sono un record assoluto per qualsiasi scheda video.
Se già la 2900xt non è lontana dalla gtx ed è in media superiore alla gts, mi aspetto questa allineata spesso con la gtx, sperando nei cata 7.6. In sostanza ati è riuscita a pareggiare il top di nvidia (la ultra non la considero perchè è solo oc) con 9 mesi di ritardo.

coschizza
22-06-2007, 11:44
per ora le GDDR4 sono ancora costose e per questo si tense ad utilizzare quelle di velocità inferiore come queste da 2GHz reali, ma la samsung sta gia prosucendo da mesi modelli che arrivano fino a 1,4GHz (2,8GHz reali) e a breve dovrebbe iniziare con quelli da 1,6GHz.

per chi interessa la parte tecnica

http://www.samsung.com/Products/Semiconductor/common/product_list.aspx?family_cd=GME1101

il bello è che in realtà nemmeno esistono memorie GDDR4 da 2GHz perche il minimo proddo parte da 2,2GHz ma normalmente questo accade perche i produttori per avere un po di margine non le spingono mai al limite nei loro prodotti lasciando cosi un margine di sicurezza.

Mparlav
22-06-2007, 11:53
In media la HD 2900XT va' quanto la GTS non quanto la GTX.
Parlo di test con 15 giochi diversi con Catalyst 7.5 su
www.xbitlabs.com

Andrà di più con i prossimi driver? Staremo a vedere.

In questo momento la HD 2900XT più che alla F430 assomiglia ad un Hummer: alti consumi e scarse prestazioni.
Puoi metterlo su asfalto o su sterrato, ma consuma sempre in modo indecente :-)

PsyCloud
22-06-2007, 11:55
Mister24 è per dire che la ATI ha fatto la F430 nel mondo delle strade sterrate. La scheda di per se non è uno schifo è solo errata per l'ambiente in cui si trova. Quindi io dal mio punto di vista non me la sento di dire, come fanno alcuni, che è un flop, uno schifo, un cesso e simili, ma semplicemente che ati ha sbagliato strategia e forse poteva puntare ad un ibrido anche lei e tenersi l'architettura della r600 (migliorandola) per l'anno prossimo.
Quando uscirà Crisys (non ricordo mai dove va la y) vedremo se è deludente anche sulle DX10. Fino ad allora è una scheda quasi inutilizzabile.

nellosamr
22-06-2007, 11:55
scusate, con le ddr4 non dovrebbe consumare qualche watt in meno?
a me sembra che il problema più grosso di questa scheda siano i consumi

-noxius-
22-06-2007, 11:56
Bhè , considerando il fatto che una 1600XT pagata 100$ quasi 2 anni fa , la 2600xt 256mb a 100 euro è semplicemente perfetta ; anche se dovesse andare leggermente peggio rispetto alla 8600gts , per 99$ non credo proprio che sia il caso di lamentarsi . E' Ovvio che la max risoluzione risoluzione consentita sarebbe 1024x768+aa+HDR , con un bel processore cloccato (tipo 6300 oppure l'ottimo 6600 a meno di 200$) .

Off Topic: Notizia molto più interessante ..
http://uk.theinquirer.net/?article=40498

Kharonte85
22-06-2007, 12:08
CVD, il prezzo di 500euri rendera' questa scheda inutile...inoltre con gli stessi soldi e anche meno ci si puo' prendere una 8800gtx...:)

Mparlav
22-06-2007, 12:24
Il quantitativo ed anche il tipo di memorie, incidono pochissimo sui consumi.
Ci saranno una decina di W di differenza tra 512Mb GDDR3 e 1Gb GDDR4. Ben poca cosa.

Kharonte85
22-06-2007, 12:29
Il quantitativo ed anche il tipo di memorie, incidono pochissimo sui consumi.
Ci saranno una decina di W di differenza tra 512Mb GDDR3 e 1Gb GDDR4. Ben poca cosa.
Cosa non certo positiva visto il gia' esorbitante consumo della 2900xt :stordita: e visto che il tanto sperato passaggio a 65nm non c'è stato...:mc:

-ArtOfRight-
22-06-2007, 12:33
Io non seguo il tuo ragionamento, le schede video fatte per giocare devono essere testate con i giochi attualmente in commercio e non con quelli che non ci sono perché usciranno tra un anno. Riprendendo il tuo paragone automobilistico se tutte le strade del mondo fossero sterrate la F430 farebbe :Puke:

Esatto, dx9 o dx10 non cambia nulla: forse il gap fra 8800gts e 2900xt nei giochi dx10 si ridurrà un pochino, ma non vi aspettiate che un sorpasso, è proprio impossibile!

Prescindendo da questo, i giochi dx10 non si sa quando si vedranno (comunque non prima di un anno) [mi riferisco a giochi INTERAMENTE dx10, non come UT3], quindi, considerato ogni quanto tempo un utente medio cambia scheda video il confronto su dx10 ha ancora meno valenza [IMHO: una scheda video da 500€ è dedicata agli ultra appassionati che cambiano scheda non appena ne esce una nuova, o comunque non la tengono più di 1 anno]

Mister24
22-06-2007, 12:36
Mister24 è per dire che la ATI ha fatto la F430 nel mondo delle strade sterrate. La scheda di per se non è uno schifo è solo errata per l'ambiente in cui si trova. Quindi io dal mio punto di vista non me la sento di dire, come fanno alcuni, che è un flop, uno schifo, un cesso e simili, ma semplicemente che ati ha sbagliato strategia e forse poteva puntare ad un ibrido anche lei e tenersi l'architettura della r600 (migliorandola) per l'anno prossimo.
Quando uscirà Crisys (non ricordo mai dove va la y) vedremo se è deludente anche sulle DX10. Fino ad allora è una scheda quasi inutilizzabile.

Sono d'accordo che la scheda non è uno schifo in senso assoluto, ma in un mercato in cui non ci sono giochi directX10 che la possano sfruttare, questa lo diventa. Perché quando usciranno questi giochi (tra più un anno) ci saranno altre schede migliori che andranno ancora meglio.
Con questo non prendermi per un fanboy nvidia, se guardi la firma ho una 9600pro e la prossima scheda video che ho in programma di comprare questa estate molto probabilmente sarà una x1950pro.

JohnPetrucci
22-06-2007, 12:49
Ok, aspettiamo di vederla sul mercato ma mi sa che non è un "Sogno"....a vedere questi risultati di una versione meno potente della stessa famiglia http://uk.theinquirer.net/?article=40495
Non ci sono benchmark nel link da te postato, solo uno screen del 3dmerd e tra l'altro è solo una news sulla 2400 XT, che con la HD 2900 XT non c'entra una mazza.
E poi la fonte, The Inquirer:rolleyes:, si sa che non è sempre attendibile.
Ci vogliono fatti, e arriveranno presto, poi se sarai capace di trovare un sito su 10 che la pone davanti alla 8800 gtx non farai testo comunque.

sniper84n
22-06-2007, 13:00
dubito che questa scheda possa avere prestazioni maggiori della precedente. Un Gbyte di ram forse servirà a qualche fps in più in giochi pesanti ad alte risoluzioni, con i filtri attivi, ma nulla di più. Mi sembra che la differenza di prestazioni tra nvdia e ati si data più da differenze architetturali. I 128 stream di nvidia, a quanto pare funzionano meglio dei 64 vettoriali (->64x4) della soluzione ati. Non me ne intendo molto di architettura di schede video, ma potrebbe essere che o a causa di dx9 o a causa di driver poco maturi, non si riesca a parallelizzare bene il calcolo e i 64x4 restino ben lontani dai teorici 256 stream processor pubblicizzati da ati. Le mie sono solo supposizioni, in quanto me ne intendo di programmazione normale e multi threaded, ma non grafica. Qualcuno ha idea se potrebbe essere un'ipotesi corretta?

123gas
22-06-2007, 13:07
non ci dimentichiamo infine che la 8800 ultra non è ancora in grado di accollarsi il peso di una completa riproduzione HD sfruttando anche la CPU, mentre questa scheda non ha bisogno di appoggiarsi a nessun altro elemento. Datemi retta riflettete prima di fare un nuovo acquisto.


le hd 2900xt non sono dotate di UVD (Universal Video Decoder) a differenza delle hd 2600, ma della stessa tecnologia Avivo presente sulle vga di generazione precedente.

http://www.hwupgrade.it/news/skvideo/niente-uvd-per-le-schede-video-ati-radeon-hd-2900-xt_21341.html
Hardware Upgrade

Se l'UVD permette di sgravare il processore da tutte le fasi di elaborazione dei flussi video, lo stesso non può dirsi di Avivo, tecnologia implementata da ATI con le precedenti generazioni di GPU della serie Radeon X1000; in questo caso infatti il bitstream processing e l'entropy decode restano a carico della cpu. Approccio simile per le architetture Purevideo HD, adottate con le schede video della serie GeForce 7 e GeForce 8800: anche la frequency transformation è delegata al processore, con una sua conseguente più elevata percentuale di occupazione.

mentre tutte le 8800 sono dotate di PureVideo HD, meno evoluto rispetto all'ultima versione implementato sulle 8600/8500 ma cmq sufficiente a raggiungere 128 punti su 130 nel popolare benchmark HQV.

PsyCloud
22-06-2007, 13:43
mi sembra che siamo entrati in loop, diciamo le stesse cose in 4-5.
Sono il primo a dire che la 2900 è una scheda inadeguata al periodo attuale e che adesso come adesso è meglio nvidia.

halduemilauno
22-06-2007, 13:50
CVD, il prezzo di 500euri rendera' questa scheda inutile...inoltre con gli stessi soldi e anche meno ci si puo' prendere una 8800gtx...:)

e aggiungo se fosse competitiva con la gtx perchè amd non ha presentato essa stessa questa scheda?
;)

DakmorNoland
22-06-2007, 13:58
e aggiungo se fosse competitiva con la gtx perchè amd non ha presentato essa stessa questa scheda?
;)

Perchè la versione da 512MB è già sufficientemente potente per andare come la GTX, e costa 150€ di meno. ;) Sta versione da 1GB darà definitivamente il colpo di grazia a quel baraccone della GTX. Sottolineo baraccone perchè in molti case non entra nemmeno tanto è lunga! :doh:

Mister Tarpone
22-06-2007, 14:04
Perchè la versione da 512MB è già sufficientemente potente per andare come la GTX, e costa 150€ di meno. ;) Sta versione da 1GB darà definitivamente il colpo di grazia a quel baraccone della GTX. Sottolineo baraccone perchè in molti case non entra nemmeno tanto è lunga! :doh:

sarà pure un baraccone ma nel forum di Crysis Online dicono che sarà l'unica scheda capace di far girare questo gioco con i filtri attivati... :asd: anche se si parla di cali sotto i 20fps nelle scene più incasinate.

Questi, al momento,sembrano essere i risultati ottenuti con questa vga da 500€ :winner:
però ero a pagina 300... può essere che a pagina 500 le cose siano cambiate eh!!! :asd:

DakmorNoland
22-06-2007, 14:08
sarà pure un baraccone ma nel forum di Crysis Online dicono che sarà l'unica scheda capace di far girare questo gioco con i filtri attivati... :asd: anche se si parla di cali sotto i 20fps nelle scene più incasinate.

Questi, al momento,sembrano essere i risultati ottenuti con questa vga da 500€ :winner:
però ero a pagina 300... può essere che a pagina 500 le cose siano cambiate eh!!! :asd:

Ma Crysis non è nemmeno ancora uscito, non ci sono driver adeguati, date il tempo al tempo, è inutile testare una scheda con un gioco se non ci sono i driver all'altezza. ;)

Mister Tarpone
22-06-2007, 14:09
Ma Crysis non è nemmeno ancora uscito, non ci sono driver adeguati, date il tempo al tempo, è inutile testare una scheda con un gioco se non ci sono i driver all'altezza. ;)

si speriamo... intanto finisco di leggermi le altre 200 pagine.. :asd:

halduemilauno
22-06-2007, 14:10
Perchè la versione da 512MB è già sufficientemente potente per andare come la GTX, e costa 150€ di meno. ;) Sta versione da 1GB darà definitivamente il colpo di grazia a quel baraccone della GTX. Sottolineo baraccone perchè in molti case non entra nemmeno tanto è lunga! :doh:

nemmeno il presidente di amd avrebbe il coraggio di simili affermazioni. la tua è disinformazione e faziosità allo stato puro. puro.

Mister Tarpone
22-06-2007, 14:12
Non dare retta a queste stupidaggini!! Ancora e presto per poter definire come andrà crysis sulle nostre schede!! I test sulle versioni alpha è normale che diano quei risultati ma aspetta di testare la versione definitiva e poi vediamo quella scheda lo girare meglio. Per me la GTX

mahh... che poi nei requisiti consigliati (ufficiali) parlano di una semplice 7800gt ... ma magariiiiiiiiii!!! ma non ci credo assolutamente :fagiano:

DakmorNoland
22-06-2007, 14:13
nemmeno il presidente di amd avrebbe il coraggio di simili affermazioni. la tua è disinformazione e faziosità allo stato puro. puro.

Intendi la parte che non entra in molti case? :asd: :asd:

Cmq ti rispondevo a tono, visto che ti conosco piuttosto bene oramai. :D E cmq non mi nascondo dietro ad un dito, sono pro ATI da tempo e credo molto nelle potenzialità delle 2900XT, solo questione di drivers vedrai...

come la ultra faranno la fine della mia 7950 e cioè sponsorizzate come le schede più potenti e poi abbandonate al loro destino e cioè quello di non vedersi mai funzionare al massimo.... non spendo più soldi per quelle carrette di nvidia..preferisco prendermi una 2900 cosi per lo meno avrò la certezza che anche se non riuscirò a sfruttarla subito tra un pò riuscirò a sfruttarla a pieno.

Verissimo ATI come supporto driver nei giochi è grandiosa, fa miracoli anche con modelli vecchi di 1-2anni con gli ultimi giochi usciti.

JohnPetrucci
22-06-2007, 14:16
Perchè la versione da 512MB è già sufficientemente potente per andare come la GTX, e costa 150€ di meno. ;) Sta versione da 1GB darà definitivamente il colpo di grazia a quel baraccone della GTX. Sottolineo baraccone perchè in molti case non entra nemmeno tanto è lunga! :doh:
Si, andare come una 8800 GTX, forse se la overclocchi di brutto!:rolleyes:
Non diciamo assurdità, la HD 2900 XT ha le prestazioni di una 8800 GTS 640mb, altro che GTX!
Certo poi se c'è qualche gioco dove si avvicina alla GTX perchè è più consono all'architettura ATI, o qualche sito che la recensisce a modo suo(e sono una sparuta minoranza), ma parliamo di uno su 50-100, come ho scritto prima le rarità non fanno testo.;)

JohnPetrucci
22-06-2007, 14:19
Intendi la parte che non entra in molti case? :asd: :asd:

E cmq non mi nascondo dietro ad un dito, sono pro ATI da tempo e credo molto nelle potenzialità delle 2900XT, solo questione di drivers vedrai...

Fra sei mesi saremmo ancora qui ad attendere i driver "Cataclism":D miracolati/miracolosi che porteranno la HD 2900 XT a raggiungere/superare la 8800 GTX.....
Anche per te vale lo stesso:
SOGNA.;) :O

halduemilauno
22-06-2007, 14:20
e a questa mia affermazione che mi pare di un'ovvietà disarmante...
e aggiungo se fosse competitiva con la gtx perchè amd non ha presentato essa stessa questa scheda?
;)

tu rispondi cosi...
Perchè la versione da 512MB è già sufficientemente potente per andare come la GTX, e costa 150€ di meno. ;) Sta versione da 1GB darà definitivamente il colpo di grazia a quel baraccone della GTX. Sottolineo baraccone perchè in molti case non entra nemmeno tanto è lunga! :doh:


Intendi la parte che non entra in molti case? :asd: :asd:

Cmq ti rispondevo a tono, visto che ti conosco piuttosto bene oramai. :D E cmq non mi nascondo dietro ad un dito, sono pro ATI da tempo e credo molto nelle potenzialità delle 2900XT, solo questione di drivers vedrai...



Verissimo ATI come supporto driver nei giochi è grandiosa, fa miracoli anche con modelli vecchi di 1-2anni con gli ultimi giochi usciti.


a tono???

Dox
22-06-2007, 14:23
quanto silicio sprecato....

JohnPetrucci
22-06-2007, 14:27
Perchè la versione da 512MB è già sufficientemente potente per andare come la GTX, e costa 150€ di meno. ;) Sottolineo baraccone perchè in molti case non entra nemmeno tanto è lunga! :doh:
Preferisco una scheda un pò più lunga(misure che poi la mia 8800 GTS non ha, in quanto è 5 cm più corta della GTX) un "baraccone" come l'hai definita tu, rispetto ad una "ciabatta" che scalda come un forno, consuma come uno scaldabagno ed emette il rumore di un martello pneumatico.;)
Questo solo per adeguarmi al tuo termine di "baraccone" mantenendone lo scenario per rendere meglio l'idea.....:D

leoneazzurro
22-06-2007, 14:29
Di grazia, vorremmo per caso finirla con queste inutili diatribe su chi ce l'ha più lungo, prima che mi scappi il ditino sul tasto "sospendi"?

halduemilauno
22-06-2007, 14:34
Può darsi però sono proprio curioso di vedere che fine farà la 8800 GTX !! Datemi retta lasciate perdere la potenza che non verrà mai sfruttata pensate a qualcosa che vi garantisca qualcosa che possa durare....io ancora piango per la mia scheda!! A nvidia non interessa che gli utenti possano sfruttare a pieno le proprio schede a nvidia interessa di vendere il suo prodotto.

come a tutte le aziende del mondo. si chiama profitto tutte e in particolare le spa ne vanno matte.
;)

JohnPetrucci
22-06-2007, 14:34
Può darsi però sono proprio curioso di vedere che fine farà la 8800 GTX !! Datemi retta lasciate perdere la potenza che non verrà mai sfruttata pensate a qualcosa che vi garantisca qualcosa che possa durare....io ancora piango per la mia scheda!! A nvidia non interessa che gli utenti possano sfruttare a pieno le proprio schede a nvidia interessa di vendere il suo prodotto.
Perchè Ati per caso fa beneficienza?
Ma dai!
Se ti riferisci ai driver della serie 7, quelli sono stati aggiornati (in forte ritardo), anche se non con l'accanimento della serie 8 (quella su cui puntare di più, ovviamente), e seppur non assolvo Nvidia per aver trascurato sotto questo punto di vista la precedente serie, le cose vanno riferite per come stanno.

nudo_conlemani_inTasca
22-06-2007, 14:35
Non ti attendere stravolgimenti rispetto alla versione da 512mb, vedrai se non ho ragione....:O
Sai che non sono tanto d'accordo su quello che dici..?!
Voglio dire, nelle architetture precedenti ATI ha sempre beneficiato di 1 incremento di prestazioni non trascurabili con l'aumento del Clock sulle GDDR3, credo avvenga anche ora con le nuove GDDR4!
Infatti le versioni "castrate" delle architetture video di ATI dal modello R420 in poi sono state tutte penalizzate non da una differenza nella struttura del chip video ma dalle RAM e dalla freq. di funzionamento con cui venivano proposte per fascie di utenza/prezzo più basse.

Anche con le recenti Radeon X1900GT/X1950GT le versioni sono state penalizzate nelle prestazioni generali, tanto che molti utenti consigliavano di alzare il voltaggio sulle RAM e alzare di conseguenza la freq. di lavoro (con gli appositi tools) per vedere skizzare alle stelle la velocità di elaborazione della GPU! :O
Ad ogni modo le prove sul campo daranno l'ardua sentenza, IMHO! :)

leoneazzurro
22-06-2007, 14:41
le hd 2900xt non sono dotate di UVD (Universal Video Decoder) a differenza delle hd 2600, ma della stessa tecnologia Avivo presente sulle vga di generazione precedente.

http://www.hwupgrade.it/news/skvideo/niente-uvd-per-le-schede-video-ati-radeon-hd-2900-xt_21341.html

mentre tutte le 8800 sono dotate di PureVideo HD, meno evoluto rispetto all'ultima versione implementato sulle 8600/8500 ma cmq sufficiente a raggiungere 128 punti su 130 nel popolare benchmark HQV.

C'è qualche imprecisione.
Le 8800 hanno grossomodo lo stesso video processor della serie 7 con qualche affinamento , ma i 128 punti sono sul benchmark di decodifica per DVD normali, non HD. Le 8600-8500-8400 hanno la nuova versione.
R600 si trova nella stessa situazione delle 8800, con però la possibilità di mandare segnali audio e video su un solo cavo HDMI.

JohnPetrucci
22-06-2007, 14:42
Sai che non sono tanto d'accordo su quello che dici..?!
Voglio dire, nelle architetture precedenti ATI ha sempre beneficiato di 1 incremento di prestazioni non trascurabili con l'aumento del Clock sulle GDDR3, credo avvenga anche ora con le nuove GDDR4!
Infatti le versioni "castrate" delle architetture video di ATI dal modello R420 in poi sono state tutte penalizzate non da una differenza nella struttura del chip video ma dalle RAM e dalla freq. di funzionamento con cui venivano proposte per fascie di utenza/prezzo più basse.

Anche con le recenti Radeon X1900GT/X1950GT le versioni sono state penalizzate nelle prestazioni generali, tanto che molti utenti consigliavano di alzare il voltaggio sulle RAM e alzare di conseguenza la freq. di lavoro (con gli appositi tools) per vedere skizzare alle stelle la velocità di elaborazione della GPU! :O
Ad ogni modo le prove sul campo daranno l'ardua sentenza, IMHO! :)
Vedremo, a quanto pare le ram non hanno più tutta l'influenza di una volta sulle schede Ati, e cmq io prima di prendere la 8800 GTS avevo una x1800Xt, questo solo per togliere il campo da qualsiasi dubbio di fanboysmo.
Questo è il turno di Nvidia, le schede HD 2900 XT di Ati non sono all'altezza.:O

sniper84n
22-06-2007, 14:45
Leoneazzurro ha ragione. Questo forum sta scadendo proprio. Ogni topic che parla di amd/intel o ati/nvidia diventa una sfilza di post di fanboy uno più inutile dell'altro. Mi fa piacere soprattutto che ho fatto una domanda sull'architettura che non è stata minimamente cagata... Per fortuna che siamo su un forum che si chiama hardware upgrade.. mi chiedo se c'è ancora qualcuno che sa di cosa si parla..

JohnPetrucci
22-06-2007, 14:48
Hai detto proprio bene: "Le cose vanno riferite per come stanno" Si è vero i driver sono stati aggiornati a distanza di quasi 6 mesi e cosa hanno risolto dimmi..la mia scheda va come andava con i vecchi driver, l'unica cosa che ho notato è stato un "leggero" incremento delle prestazioni ma ancora siamo molto al di sotto di quello che può rendere lamia scheda. Se se ne occupassero specificatamente la 7950 GX2 sarebbe tutt'ora la scheda più veloce sul mercato ma non lo fanno e ti sei chiesto il perchè? perchè se la rendessero potente come la avevano preannunziata nessun comprerebbe quei nuovi bidoni che commercializza ora e questo a mio parere è ingiusto e scorretto nei confronti delle persone come nel mio caso investono 800 € per nulla. L' Ati non sarà certamente meglio però almeno si è prefissata di migliorare i suoi prodotti mensilmente nvidia non si sa mai quando ha intenzione di rilasciare i nuovi driver e quando lo fa so sempre versioni beta. Questo è quanto...
Che vuoi che ti dica, io la tua scheda non l'avrei mai presa, non mi attirano le soluzioni che consumano, riscaldano tanto(oltre a costare parecchio), e con 2 gpu simili siamo li.
Ad ogni modo non è che aggiornare i driver sia un obbligo, se non ci sono troppi problemi con diversi giochi e i vecchi vanno ancora bene, diverso il discorso in caso contrario.

Poi se ti senti scontento puoi sempre passare alla concorrenza, e vedrai da te stesso che non è piacevole ritrovarsi una turbina (riferito alla ventola originale), un forno e consumi in stile americano, all'interno del proprio case.
Esperienza che ho già vissuto con la gloriosa X1800XT, una scheda che non di rado dopo un'ora di gioco raggiungeva tranquilla anche i 90 C° con tanto di Zalman Vf-900 Cu montato sopra + artic silver 5.

nudo_conlemani_inTasca
22-06-2007, 14:49
Vedremo, a quanto pare le ram non hanno più tutta l'influenza di una volta sulle schede Ati, e cmq io prima di prendere la 8800 GTS avevo una x1800Xt, questo solo per togliere il campo da qualsiasi dubbio di fanboysmo.
Questo è il turno di Nvidia, le schede HD 2900 XT di Ati non sono all'altezza.:O

Idem pure io, non è che ATI mi dia lo stipendio.. quindi nulla di guadagnato,
però ho sempre difeso ATI (fino all'avvento delle GF8800) per la qualità cromatica e la resa video dei filtri applicati, inversione di tendenza con l'ultima generazione di GPU di nVidia, che come Intel.. per analogià ha lavorato più seriamente del binomio AMD-ATI in questi ultimi 2 anni per la presentazione delle 2 nuove architetture, X4 e R600 a quanto pare.

I Driver ATI credo giochino un ruolo di primo piano sull'effettiva validità della GPU a shader unificati.. e tutte le valutazioni che sono state fatte + benchmark non dimentichiamoci che sono stati effettuati sulla totalità di titolo quasi interamente FULL DX9.0c!

Di titoli DX10, manco l'ombra per ora.. o quasi, e lì con driver ottimizzati e maturi, e il die shrink delle GPU @ 65nm per la X2900XT (la XTX manco l'hanno presentata.. causa consumi abnormi @ 80nm.. suppongo.. :( )
forse.. dirà la sua, almeno speriamo.
:mbe:

DakmorNoland
22-06-2007, 14:53
Leoneazzurro ha ragione. Questo forum sta scadendo proprio. Ogni topic che parla di amd/intel o ati/nvidia diventa una sfilza di post di fanboy uno più inutile dell'altro. Mi fa piacere soprattutto che ho fatto una domanda sull'architettura che non è stata minimamente cagata... Per fortuna che siamo su un forum che si chiama hardware upgrade.. mi chiedo se c'è ancora qualcuno che sa di cosa si parla..

Guarda mi spiace davvero, scusa. Prometto che smettero di postare qui, solo che da fastidio aprire una discussione e vedere sempre i soliti commenti pro Nvidia, quindi mi sembrava giusto ribilanciare, dicendo la mia. :D

Chiudo qua, spero che qualcuno ti sappia rispondere. ;) Chiedo scusa anche a leoneazzurro.

JohnPetrucci
22-06-2007, 14:57
Idem pure io, non è che ATI mi dia lo stipendio.. quindi nulla di guadagnato,
però ho sempre difeso ATI (fino all'avvento delle GF8800) per la qualità cromatica e la resa video dei filtri applicati, inversione di tendenza con l'ultima generazione di GPU di nVidia, che come Intel.. per analogià ha lavorato più seriamente del binomio AMD-ATI in questi ultimi 2 anni per la presentazione delle 2 nuove architetture, X4 e R600 a quanto pare.

I Driver ATI credo giochino un ruolo di primo piano sull'effettiva validità della GPU a shader unificati.. e tutte le valutazioni che sono state fatte + benchmark non dimentichiamoci che sono stati effettuati sulla totalità di titolo quasi interamente FULL DX9.0c!

Di titoli DX10, manco l'ombra per ora.. o quasi, e lì con driver ottimizzati e maturi, e il die shrink delle GPU @ 65nm per la X2900XT (la XTX manco l'hanno presentata.. causa consumi abnormi @ 80nm.. suppongo.. :( )
forse.. dirà la sua, almeno speriamo.
:mbe:
Concordo in pieno.
Ho avuto schede gloriose davvero, targate ATI, come la 9500 pro, la 9800 pro, e a parte il rumore della ventola originale e il calore/consumo anche la X1800Xt è stata una buona scheda.;)

Mister Tarpone
22-06-2007, 15:19
Io prima di passare a questa scheda avevo una Sapphire x850 xt pe e non mi ha mai dato problemi nè di riscaldamento nè di consumi poi ho deciso di cambiare per cercare di migliorare un pò alcune applicazioni 3d che volevo godermi al massimo, ovviamente aggiornando anche altri pezzi vitali. Ora non sto a criticare nvidia anche perchè proprio ieri avevo quasi comprato la ultra della 8800 però sono perplesso perchè non voglio che faccia la stessa fine di quella che possiedo ora. Ati si non è stata brillante con queste sue nuove proposte ma spero che per lo meno i driver gli rendano giustizia. Non so ancora cosa farò..per il momento continuo con la mia poi dopo aver dato un'occhiata ai test che verranno effettuati sulla 2900 prenderò una decisione.


ma hai una GX2 :eek: !!!

ma allora fai una cosa fatta come si deve ;) salta completamente questa generazione di vga dx10 ;) e punta a g92 / r700 :oink:

ciao...

Mister Tarpone
22-06-2007, 15:37
Mi sa che andrà a finire proprio cosi...!! :rolleyes:

dammi retta ;) queste di adesso sembrano schede fantastiche.. ma vedrai quando usciranno le prossime nvidia e ati a 65nm e con prestazioni spettacolari ;) e si parla di natale per le nuove nvidia.


ASPETTA!!! ;)

ps: ho letto su crysis online che la gx2 farà girare benissimo questo gioco in dx9. TIENILA :oink:

ale0bello0pr
22-06-2007, 15:51
sono così (:D ) quando sento parlare di Crysis...anche se non nel suo thread :p
forse non tutti sanno che Crysis è stato sviluppato in collaborazione con INTEL, MICROSOFT e ...NVIDIA....quindi non ci giurerei che girera' meglio sulle soluzioni ATI anke se la stessa appunto sembra avanzata tecnologicamente rispetto alla NVIDIA..... steremo a vedere....cmq quella da 1GB della Sapphire dovrebbe essere gradevole...a quando le recensioni ufficiali?:)

Mister Tarpone
22-06-2007, 15:51
Beh mi piacerebbe giocarlo con le directx10 perla verità!! Aspetto e vedo che succede... l'idea dei nuovi processori grafici mi alletta molto! P.S. Ma dove sta scritto che la gx2 andrà benissimo...

nel forum di "Crysis Online", dove parlano dei requisiti hardware per far girare questo gioco ;)

Mister Tarpone
22-06-2007, 15:58
Beh in effetti i requisiti sono davvero molto bassi anche se c'è qualcosa che non mi convince tanto!! Possibile che un gioco cosi si accontenti di requisiti tanto miseri? Uhm.. :cool:

ma veramente in quelle 500 pagine che ho letto in quella sezione del sito, dice che questo gioco sarà molto pesante e oltre una vga moderna servirà pure tanta ram e un dual core veloce ( conroe.. o ancora meglio un quad).
e cmq una GX2 non mi sembra una vga di fascia bassa... in dx9 se un va di lusso su questa, su quale altra vga portebbe andare allora?? :asd:

leoneazzurro
22-06-2007, 15:58
dubito che questa scheda possa avere prestazioni maggiori della precedente. Un Gbyte di ram forse servirà a qualche fps in più in giochi pesanti ad alte risoluzioni, con i filtri attivi, ma nulla di più. Mi sembra che la differenza di prestazioni tra nvdia e ati si data più da differenze architetturali. I 128 stream di nvidia, a quanto pare funzionano meglio dei 64 vettoriali (->64x4) della soluzione ati. Non me ne intendo molto di architettura di schede video, ma potrebbe essere che o a causa di dx9 o a causa di driver poco maturi, non si riesca a parallelizzare bene il calcolo e i 64x4 restino ben lontani dai teorici 256 stream processor pubblicizzati da ati. Le mie sono solo supposizioni, in quanto me ne intendo di programmazione normale e multi threaded, ma non grafica. Qualcuno ha idea se potrebbe essere un'ipotesi corretta?

C'è il thread ufficiale nelal sezione schede video, ci sono parecchi post tecnici ch potranno aiutarti a capire la situazione. Comunque R600 ha un'architettura particolare che è molto orientata verso il calcolo matematico, dato che ha 320 (64x5) unità, con 16 unità di filtraggio texture (anche se sono molto più "pompate" rispetto a R580).

Mister Tarpone
22-06-2007, 16:09
i requisiti dicono tutt altro a dire il vero! Poi è ovvio che ci farà un computer della nasa per farlo girare la meglio... Chissà come sarà R700? La cosa mi incuriosisce molto...:stordita:

ma i requisiti ufficiali nella pagina iniziale?? ti riferisci a quelli?? mah... cme vga tra i "consigliati" parlano di 7800gt :sbonk:

io ci credo poco....


R700 imho sarà una bella bestia ;)