PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 [26] 27 28 29 30 31

Roman91
08-05-2007, 12:30
nn ci sto a capi + nulla!!!:muro: :muro: :muro: :muro:
allora hanno rimandato ancora l'uscuta della r600????

webbuffa
08-05-2007, 12:31
nn ci sto a capi + nulla!!!:muro: :muro: :muro: :muro:
allora hanno rimandato ancora l'uscuta della r600????

:fagiano: Non scherziamo eh :)

LOL

A.L.M.
08-05-2007, 12:35
se ci sono 16 chip come e avrebbe 512 mb come mia nella mia X1900XT che ha 512 mb ce ne sono solo 8?
Hanno raddoppiati i chip di memoria forse per il fatto che sono passati dal bus 256 a quello a 512 bit?

Beh, per mantenere il bus a 512bit o monti 8 moduli da 64bit o 16 da 32bit. ;)

Roman91
08-05-2007, 12:37
:fagiano: Non scherziamo eh :)

LOL

ok allora tra 6 giorni sara disponibile ....ma in italia???

A.L.M.
08-05-2007, 12:43
ok allora tra 6 giorni sara disponibile ....ma in italia???

Anche. Ci sono 2 e-shop che le danno già disponibili da ordinare (di cui una a 400€ se si paga con bonifico). :)

nitroin
08-05-2007, 12:45
Beh, per mantenere il bus a 512bit o monti 8 moduli da 64MB o 16 da 32MB. ;)

Non penso sia per la loro grandezza quanto il loro bus singolo...

32bit x16 = 512 bit

beleno
08-05-2007, 12:47
se ci sono 16 chip come e avrebbe 512 mb come mia nella mia X1900XT che ha 512 mb ce ne sono solo 8?
Hanno raddoppiati i chip di memoria forse per il fatto che sono passati dal bus 256 a quello a 512 bit?

dovrebbe essere 16x32bit che fa 512 bit, se non sbaglio. se abbinate a memorie da 1ghz direi che avremmo una banda passante decisamente elevata.speriamo che i discorsi sull'AA free possano essere confermati a questo punto!
Ciao

Roman91
08-05-2007, 12:52
Anche. Ci sono 2 e-shop che le danno già disponibili da ordinare (di cui una a 400€ se si paga con bonifico). :)

400 euro:eek: :eek: :eek: :eek:
nn è 1po troppo???visto ke va come una gts

A.L.M.
08-05-2007, 12:52
Non penso sia per la loro grandezza quanto il loro bus singolo...

32bit x16 = 512 bit

Sì hai ragione, ho corretto. :doh:

Skullcrusher
08-05-2007, 12:53
400 euro:eek: :eek: :eek: :eek:
nn è 1po troppo???visto ke va come una gts

Non va come una GTS, dovrebbe andare di più ;)

nitroin
08-05-2007, 12:57
400 euro:eek: :eek: :eek: :eek:
nn è 1po troppo???visto ke va come una gts

Nulla è certo...vi costa tanto aspettare prima di sputare sentenze? :oink:


Senza offesa, ma le prestazioni variano a seconda a chi si decide (arbitrariamente) di dar ragione...ed è tutto discordante

A sto punto aspettiamo il 14 e diamo ragione a hwupgrade!

Roman91
08-05-2007, 13:00
Nulla è certo...vi costa tanto aspettare prima di sputare sentenze? :oink:


Senza offesa, ma le prestazioni variano a seconda a chi si decide (arbitrariamente) di dar ragione...ed è tutto discordante

A sto punto aspettiamo il 14 e diamo ragione a hwupgrade!

quoto
x il motivo da te citato nn riesko a decide ke skeda prendere xkè ogni uno difende la sua:rolleyes:

A.L.M.
08-05-2007, 13:03
400 euro:eek: :eek: :eek: :eek:
nn è 1po troppo???visto ke va come una gts

Anche prendendo per assurdo come vere le prestazioni nei test di DailyTech (cioè il worst case scenario) vanno meglio di una GTS. ;)

A sto punto aspettiamo il 14 e diamo ragione a hwupgrade!

Più che altro facciamo una media di tutti i siti più affidabili... Anche una sola recensione ufficiale può essere fuorviante.

Senza offesa, ma le prestazioni variano a seconda a chi si decide (arbitrariamente) di dar ragione...ed è tutto discordante

Anche qui avrei qualcosa da ridire... Se uno sa più o meno come vanno le cose in certe community, sa che certi personaggi (Kinc, W1zzard, Victor Wang, ecc...) sono molto ma molto più affidabili della maggior parte dei siti di gossip IT (tra i quali DailyTech va inserito, pur se appartiene al rispettabilissimo Anandtech). Ovvio che i benchmark sintetici poi contino poco. ;)

DjLode
08-05-2007, 13:03
quoto
x il motivo da te citato nn riesko a decide ke skeda prendere xkè ogni uno difende la sua:rolleyes:

Trovane pure tu una da difendere :)

nitroin
08-05-2007, 13:06
quoto
x il motivo da te citato nn riesko a decide ke skeda prendere xkè ogni uno difende la sua:rolleyes:

Si e poi si evita di scrivere 100 pagine con considerazioni personali/ot ininfluenti...

webbuffa
08-05-2007, 13:10
;) Di una cosa sono certo, non andrà meno di una 8800 GTS 320 ( :asd: ) ,imho, è una grande scheda! :D
400ˆ li vale tutti :) soprattutto per la qualita' che ha sempre contraddistinto la grafica ATI. :D

nitroin
08-05-2007, 13:16
;) Di una cosa sono certo, non andrà meno di una 8800 GTS 320 ( :asd: ) ,imho, è una grande scheda! :D
400ˆ li vale tutti :) soprattutto per la qualita' che ha sempre contraddistinto la grafica ATI. :D

imho, imho, imho...andiamo tutti a fiducia...sperem

Bah, io ora ora aspetto il 14! saluto tutti!

Pr|ckly
08-05-2007, 13:17
Ma la 2900XT andrebbe paragonata alla GTS o alla GTX?
Immagino GTX visto che è uscita la 8800Ultra, giusto?

Marko#88
08-05-2007, 13:18
;) Di una cosa sono certo, non andrà meno di una 8800 GTS 320 ( :asd: ) ,imho, è una grande scheda! :D
400ˆ li vale tutti :) soprattutto per la qualita' che ha sempre contraddistinto la grafica ATI. :D

infatti G80 ha dei filtri nettamente superiori a qualunque altra scheda video in circolazione...PER ORA nvidia batte ati come qualità grafica....

webbuffa
08-05-2007, 13:19
infatti G80 ha dei filtri nettamente superiori a qualunque altra scheda video in circolazione...PER ORA nvidia batte ati come qualità grafica....

;) come quantità di filtraggio si :)! Ma se guardiamo le differenze in due screen comparati il vantaggio è ATI... almeno per i miei occhi :D

A.L.M.
08-05-2007, 13:23
Ma la 2900XT andrebbe paragonata alla GTS o alla GTX?
Immagino GTX visto che è uscita la 8800Ultra, giusto?

Per caratteristiche è corretto paragonarla alla GTX (a prescindere dalla Ultra). ;)

Evangelion01
08-05-2007, 13:28
;) come quantità di filtraggio si :)! Ma se guardiamo le differenze in due screen comparati il vantaggio è ATI... almeno per i miei occhi :D

Quanto hai di miopia? :Prrr: :)

Evangelion01
08-05-2007, 13:32
Ma la 2900XT andrebbe paragonata alla GTS o alla GTX?
Immagino GTX visto che è uscita la 8800Ultra, giusto?

Dovrebbe compararsi alla gtx, ma con tutto quello che è stato detto in questi giorni, non mi sbilancerei e aspetterei l' uscita definitiva...

ale0bello0pr
08-05-2007, 13:37
azz mi sa che anche lo stesso coolaler...abbia ovviamente la scheda...:D ...e "dice" che la suddetta scheda qui:read:

http://pics.coolaler.com/coolaler/r600_2.jpg

è la HD 2950 XTX 1024MB GDDR4 ( la OEM? ;) )

fonte
http://www.coolaler.com/forum/showpost.php?p=1761703&postcount=46

Alexkidd85
08-05-2007, 13:42
Ennesima sfilza di post "pro" ati e nvidia senza alcun aiuto per il topic...ormai io parlo solo quando "l'organo genitale maschile fa l'unghio" ...però lo voglio fare notare,senza aver nulla contro la gente :)

@ nitroin

Aspé che chiudiamo il 3d e lo riapriamo il 14 :muro:
Si chiama "aspettando" quindi noi aspettiamo con "ipotesi e considerazioni" (IT ovviamente) annesse e connesse....

Foglia Morta
08-05-2007, 13:48
azz mi sa che anche lo stesso coolaler...abbia ovviamente la scheda...:D ...e "dice" che la suddetta scheda qui:read:


è la HD 2950 XTX 1024MB GDDR4 ( la OEM? ;) )

fonte
http://www.coolaler.com/forum/showpost.php?p=1761703&postcount=46

se ce l'ha perchè non gli fa una foto ?

quella è stata postata da dailytech nel suo articolo...

Simon82
08-05-2007, 14:07
http://img91.imageshack.us/img91/8485/msi2900xt01zj0.jpg

lele980
08-05-2007, 14:09
è grande come una gts

Defragg
08-05-2007, 14:10
si parlava di fast14 :sofico:
http://www.hostingfiles.net/files/20070321013640_evvai.gif
comunque ho ragione? :fagiano: :stordita:

[OT] l avatar di Defrag mi distrae dall argomento del Topic, bannatelo :D [OT]
p.s. o cambi avatar o mi dai il suo numero di telefono :D

:asd:

Defragg
08-05-2007, 14:12
http://img91.imageshack.us/img91/8485/msi2900xt01zj0.jpg

è grande come una gts

sinceramente a vederla così mi sembra solo una GTS rossa :fagiano: :asd:

lele980
08-05-2007, 14:13
non posso che darti ragione :D

Simon82
08-05-2007, 14:14
Comunque piu' guardo queste schede e piu' mi chiedo dove andremo a finire... manco sembrano piu' schede video tanto sono bardate e tozze. :fagiano:

Pr|ckly
08-05-2007, 14:17
Per caratteristiche è corretto paragonarla alla GTX (a prescindere dalla Ultra). ;)

Quindi, senza entrare in discussioni tecniche, come prestazioni *dovremmo* essere sulla stessa linea della gtx con un prezzo minore, giusto?
Il tutto in attesa del modello a 65...
Grazie.

lele980
08-05-2007, 14:18
Comunque piu' guardo queste schede e piu' mi chiedo dove andremo a finire... manco sembrano piu' schede video tanto sono bardate e tozze. :fagiano:

dubito che torneranno cosi:

http://img523.imageshack.us/img523/9333/5agpks2.jpg (http://imageshack.us)

Simon82
08-05-2007, 14:23
http://www.hostingfiles.net/files/20070321013640_evvai.gif
comunque ho ragione? :fagiano: :stordita:




:asd:

Possiamo dare un taglio ai post un po' troppo ot please?

;)

Alexkidd85
08-05-2007, 14:25
Edit

lele980
08-05-2007, 14:27
di questo passo non riesco ad immaginare una scheda video tra 3-4 anni!

verranno fatte esclusivamente con kit a liquido oppure con metallo liquido

altra cosa da considerare: il processo produttivo non si ridurra' all'infinito

Simon82
08-05-2007, 14:28
dubito che torneranno cosi:

http://img523.imageshack.us/img523/9333/5agpks2.jpg (http://imageshack.us)

Certo, ma a mio parere ci vorrebbe un certo equilibrio come sempre c'e' stato se no significa che la tecnologia produttiva a tutti gli effetti non riesce a stare dietro alla tecnologia architetturale e concettuale.

Ed e' proprio con questi momenti di "ferma" (90u -> 90u o 90u -> 80u optic.) che continuiamo ad allontanarci da un ridimensionamento. Mi auguro che TSMC e & facciano del loro meglio per sfornare tecnologie all'avanguardia per salvarci da un imminente "triple slot".

Roman91
08-05-2007, 14:31
Certo, ma a mio parere ci vorrebbe un certo equilibrio come sempre c'e' stato se no significa che la tecnologia produttiva a tutti gli effetti non riesce a stare dietro alla tecnologia architetturale e concettuale.

Ed e' proprio con questi momenti di "ferma" che continuiamo ad allontanarci da un ridimensionamento. Mi auguro che TSMC e & facciano del loro meglio per sfornare tecnologie all'avanguardia per salvarci da un imminente "triple slot".

:eek: :eek: :eek:

fukka75
08-05-2007, 14:44
azz mi sa che anche lo stesso coolaler...abbia ovviamente la scheda...:D ...e "dice" che la suddetta scheda qui:read:

http://pics.coolaler.com/coolaler/r600_2.jpg

è la HD 2950 XTX 1024MB GDDR4 ( la OEM? ;) )

fonte
http://www.coolaler.com/forum/showpost.php?p=1761703&postcount=46

E' la stessa identica scheda provata da dailytech, anzi è proprio la stessa foto :rolleyes:

TecnoWorld8
08-05-2007, 15:00
sono stato tutta la mattina impossibilitato a leggere il thread e me lo ritrovo con 4 pagine nuove, di cui almeno 3 in OT o ripetizioni di cose già dette. Non vorrei sembrare pedante, ma...pregherei di mantenere un po' l'ordine, perchè diventa difficile leggere, se non si fa refresh ogni 2 minuti.

grazie...

detto questo...qualcuno potrebbe segnalarmi in PM il negozio dove è preordinabile a 400 euro? grazie ancora!

A.L.M.
08-05-2007, 15:02
azz mi sa che anche lo stesso coolaler...abbia ovviamente la scheda...:D ...e "dice" che la suddetta scheda qui:read:

http://pics.coolaler.com/coolaler/r600_2.jpg

è la HD 2950 XTX 1024MB GDDR4 ( la OEM? ;) )

fonte
http://www.coolaler.com/forum/showpost.php?p=1761703&postcount=46

Vabbè, come già detto bisogna capire a chi credere e a chi no.
I forum cinesi/taiwanesi sono molto poco affidabili, tranne pochi utenti (che sono quelli che poi postano le immagini, ecc...). Tra l'altro vari di questi forum sono smaccatamente pro-nvidia per via della nazionalità del suo fondatore, credo. :D
Quella di Coolaler ad esempio mi pare proprio una fesseria evidente. ;)

Quindi, senza entrare in discussioni tecniche, come prestazioni *dovremmo* essere sulla stessa linea della gtx con un prezzo minore, giusto?
Il tutto in attesa del modello a 65...
Grazie.

Forse. :)

Cacio
08-05-2007, 15:04
Certo, ma a mio parere ci vorrebbe un certo equilibrio come sempre c'e' stato se no significa che la tecnologia produttiva a tutti gli effetti non riesce a stare dietro alla tecnologia architetturale e concettuale.

Ed e' proprio con questi momenti di "ferma" (90u -> 90u o 90u -> 80u optic.) che continuiamo ad allontanarci da un ridimensionamento. Mi auguro che TSMC e & facciano del loro meglio per sfornare tecnologie all'avanguardia per salvarci da un imminente "triple slot".
mi piacerebbe sapere come mai il mercato dei processori negli ultimi anni ha cercato di ridurre i consumi e le temperature (vedi c2d) mentre le schede video invece ogni anno che passa consumano e scaldano sempre più...

Evangelion01
08-05-2007, 15:07
mi piacerebbe sapere come mai il mercato dei processori negli ultimi anni ha cercato di ridurre i consumi e le temperature (vedi c2d) mentre le schede video invece ogni anno che passa consumano e scaldano sempre più...

Chiedilo a Nvidia e a ATi... misteri della tecnologia. :p

Simon82
08-05-2007, 15:08
mi piacerebbe sapere come mai il mercato dei processori negli ultimi anni ha cercato di ridurre i consumi e le temperature (vedi c2d) mentre le schede video invece ogni anno che passa consumano e scaldano sempre più...

Diverse politiche aziendali, il fatto che ATI (ex) e Nvidia sono legate a TSMC e compagnia cantante, il mostruoso incremento a livello di potenziale nelle ultime GPU..

C'e' anche da dire che "logisticamente" alle schede video va meglio perche' piano piano sono riusciti a inculcarci (leggi bene ;)) in testa il fatto che "dual slot" e' normale.. nei dintorni delle CPU c'e' meno spazio in termini di superficie.

Simon82
08-05-2007, 15:09
sono stato tutta la mattina impossibilitato a leggere il thread e me lo ritrovo con 4 pagine nuove, di cui almeno 3 in OT o ripetizioni di cose già dette. Non vorrei sembrare pedante, ma...pregherei di mantenere un po' l'ordine, perchè diventa difficile leggere, se non si fa refresh ogni 2 minuti.

grazie...

detto questo...qualcuno potrebbe segnalarmi in PM il negozio dove è preordinabile a 400 euro? grazie ancora!

Certo che prima critichiamo e poi ne approfittiamo per chiedere dove si acquista... :rolleyes:

Forse e' meglio cominciare a riordinare un po' le cose.

Tralux
08-05-2007, 15:11
spero di non sforare ma il connettore di alimentazione a 4 piedini come lo si supplisce con alimentatori sprovvisti di quel attacco ? (mica devo cambiare Ali ) :confused:

TecnoWorld8
08-05-2007, 15:18
Certo che prima critichiamo e poi ne approfittiamo per chiedere dove si acquista... :rolleyes:

Forse e' meglio cominciare a riordinare un po' le cose.

veramente il chiedere dove si trova la scheda non mi pare off topic e ho usato lo stesso messaggio per entrambe le cose proprio per non "gonfiare ulteriormente il forum". Chiedo scusa se ciò ha dato fastidio, ma non mi pareva fosse sbagliato.

Se volete continuare OT, fatelo pure.

Simon82
08-05-2007, 15:21
veramente il chiedere dove si trova la scheda non mi pare off topic e ho usato lo stesso messaggio per entrambe le cose proprio per non "gonfiare ulteriormente il forum". Chiedo scusa se ciò ha dato fastidio, ma non mi pareva fosse sbagliato.

Se volete continuare OT, fatelo pure.
Stop OT.

esticbo
08-05-2007, 15:28
fonte
http://www.coolaler.com/forum/showpost.php?p=1761703&postcount=46


per ki no sa il cino:

http://translate.google.com/translate?u=http%3A%2F%2Fwww.coolaler.com%2Fforum%2Fshowpost.php%3Fp%3D1761703%26postcount%3D46&langpair=zh%7Cen&hl=es&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

RHD2950XTX should r650
But photographs are r600

Defragg
08-05-2007, 15:32
Possiamo dare un taglio ai post un po' troppo ot please?

;)

certo ma il "comunque ho ragione?" era riferito a:

quindi mi pare di capire che R600 ha una logica di tipo attivo? :stordita: o sbaglio? :fagiano:

però per la faccina e l'immagine sono d'accordo :)

novità riguardo a un'eventuale versione Pro?

A.L.M.
08-05-2007, 15:55
La retromarcia continua... :asd:

Yes we did it, pixelized

We wrote a few times about the Radeon HD 2900XT DDR3 scores. The card clocked at 745 MHz core and 1656MHz memory. This is the card that ATI plans to launch on Monday the 14th afternoon.

It scores 10650 in 3Dmark on a Core 2 Duo 6700 CPU and 2 GB of memory. With this score the card is comparable with the 8800 GTX but not with Ultra.

In Shader model 2.0 it scores 4542, in Shader mark 03 / HDR test it scores 5071. In 3Dmark06 the card is clearly faster then the Geforce 8800 GTS 320 or 640 MB versions and it can even compete with the 8800 GTX scores. Well enough said, here is the picture.

http://www.fudzilla.com/images/stories/2007/May/graphics/3dmark06-ati-r600.gif


http://www.fudzilla.com/index.php?option=com_content&task=view&id=886&Itemid=34

Bisognerebbe capire con che drivers l'hanno fatto, ma comunque quel punteggio nettamente migliore nel test SM3 mi farebbe ben sperare anche per i giochi shader intensive... Comunque si attende qualche test più attendibile, ma soprattutto di real gaming: il 3DMark ha un po' rotto... :fagiano:

wiltord
08-05-2007, 15:58
la verità comincia ad emergere sembrerebbe..

Dexther
08-05-2007, 15:59
già, e cmq finalmente uno screen con CPU umana e risultati altamente plausibili :p

wiltord
08-05-2007, 16:01
già, e cmq finalmente uno screen con CPU umana e risultati altamente plausibili :p

già, l'E6700 dovrebbe anche essere @default..

bladerunner86
08-05-2007, 16:05
non vedo l' ora che finisca quest nda solo per non visitare più siti come fudzilla ecc...

A.L.M.
08-05-2007, 16:08
già, e cmq finalmente uno screen con CPU umana e risultati altamente plausibili :p

Come pensavo, confermano ampiamente i risultati di Kinc e Denny su XtremeSystems...
Nello screenshot di Denny (XT OEM/workstation 1GB) i punteggi @ default della sua scheda erano SM 2.0 4445 e SM 3.0 5108, ad esempio. ;)

lele980
08-05-2007, 16:09
le notizie nn ufficiali sono molto spesso fuorvianti e quindi bisogna prenderle sempre con le pinze.
come le nostre congetture :)

ad esempio:

io credo che la 2900xt sia simile alla gtx

questo spiega perche nvidia ha prodotto la ultra senza nessun cambio di architettura

forse perche la 2900xtx sara' abbastanza superiore alla gtx

gianni1879
08-05-2007, 16:29
già, l'E6700 dovrebbe anche essere @default..

credo proprio di si, dal cpu score si denota proprio questo ;)

nitro89
08-05-2007, 16:36
La retromarcia continua... :asd:



http://www.fudzilla.com/index.php?option=com_content&task=view&id=886&Itemid=34

Bisognerebbe capire con che drivers l'hanno fatto, ma comunque quel punteggio nettamente migliore nel test SM3 mi farebbe ben sperare anche per i giochi shader intensive... Comunque si attende qualche test più attendibile, ma soprattutto di real gaming: il 3DMark ha un po' rotto... :fagiano:

Speriamo che stavolta fake-zilla abbia ragione.Mi impressiona come però queste vga sian così assetate della potenza di calcolo della cpu :eek:

bladerunner86
08-05-2007, 16:38
secondo voi nvidia che farà? abbassa i prezzi?
io avevo letto da qualche parte che il g80 era stato catrato, non è possibile che rilascino delle schede con il g80 senza limitazioni?
http://www.hwupgrade.it/news/skvideo/geforce-8900-5-nuove-schede-al-debutto_20161.html

Mister Tarpone
08-05-2007, 16:39
secondo voi nvidia che farà? abbassa i prezzi?
io avevo letto da qualche parte che il g80 era stato catrato, non è possibile che rilascino delle schede con il g80 senza limitazioni?
http://www.hwupgrade.it/news/skvideo/geforce-8900-5-nuove-schede-al-debutto_20161.html

abbasserà i prezzi e dopo l'estate lancerà le 8900......

wiltord
08-05-2007, 16:43
cmq a titolo di confronto ecco i risultati del mio sistema al 3dMark06, sempre tenendo quei risultati come validi:

VGA

----------X1900XT(@XTX)------- ---HD2900XT

SM2.0---------2454-------------------- 4542

SM3.0---------2743-------------------- 5071


CPU

----------E6600(@3,00GHz)------- --- E6700

----------------2752-------------------- 2587

ATi7500
08-05-2007, 16:44
cmq a titolo di confronto ecco i risultati del mio sistema al 3dMark06, sempre tenendo quei risultati come validi:

VGA

----------X1900XT(@XTX)------- ---HD2900XT

SM2.0---------2454-------------------- 4542

SM3.0---------2743-------------------- 5071


CPU

----------E6600(@3,00GHz)------- --- E6700

----------------2752-------------------- 2587

bhe un raddoppio rispetto a R580 non lo vedrei proprio male :) Speriamo non sia solo sul 3DMark :p

bYeZ!

Skullcrusher
08-05-2007, 16:46
già, l'E6700 dovrebbe anche essere @default..

Sì, il punteggio è esatto per un E6700@default, e credo sia uno tra i bench più reali apparsi finora....

gianni1879
08-05-2007, 16:49
bhe un raddoppio rispetto a R580 non lo vedrei proprio male :) Speriamo non sia solo sul 3DMark :p

bYeZ!

beh effettivamente se il raddoppio è solo nel 3dmark conta davvero poco... cmq se raddoppiasse (sperem) anche nei gamez sarebbe molto molto interessante, quest'ultimo test sembra davvero realistico :)

Defragg
08-05-2007, 16:55
cmq a titolo di confronto ecco i risultati del mio sistema al 3dMark06, sempre tenendo quei risultati come validi:

VGA

----------X1900XT(@XTX)------- ---HD2900XT

SM2.0---------2454-------------------- 4542

SM3.0---------2743-------------------- 5071


CPU

----------E6600(@3,00GHz)------- --- E6700

----------------2752-------------------- 2587

se la X1900XT la consideriamo a 100, in SM2 la HD2900XT và a 185 e in SM3 a 184

ATi7500
08-05-2007, 16:57
se la X1900XT la consideriamo a 100, in SM2 la HD2900XT và a 185 e in SM3 a 184

questo con driver acerbi ;)

bYeZ!

wiltord
08-05-2007, 17:00
ricordo che la vga è cloccata @XTX ;)

cmq per completare, lo score totale sembra passare dai miei 6.551 a 10.646.

;)

Defragg
08-05-2007, 17:03
ricordo che la vga è cloccata @XTX ;)

cmq per completare, lo score totale sembra passare dai miei 6.551 a 10.646.

;)

quindi ricapitoliamo :)

se la X1900XT@XTX la consideriamo a 100, in SM2 la HD2900XT@default và a 185 e in SM3 a 184
se il risultato finale della X1900XT@XTX stà a 100 quello della HD2900XT stà a 162

ale0bello0pr
08-05-2007, 17:04
Vabbè, come già detto bisogna capire a chi credere e a chi no.
I forum cinesi/taiwanesi sono molto poco affidabili, tranne pochi utenti (che sono quelli che poi postano le immagini, ecc...). Tra l'altro vari di questi forum sono smaccatamente pro-nvidia per via della nazionalità del suo fondatore, credo. :D
Quella di Coolaler ad esempio mi pare proprio una fesseria evidente. ;)



Forse. :)

per quello ho messo un bel forse...e un ipotetico "dice" ... :p
cme continuo a rimanere della tesi 2900XT OC≥2900XTX>8800Ultra tantè ke me la sono stikkata nella firma 3d :D

wiltord
08-05-2007, 17:04
bisogna anche tener conto del diverso apporto della cpu però..

gianni1879
08-05-2007, 17:07
bisogna anche tener conto del diverso apporto della cpu però..

della tua @3ghz vs e6700default??

bladerunner86
08-05-2007, 17:12
cmq nelle slide di tunisi che qualcuno ha già postato c' era il confronto tra una x1900xtx ed una 2900xt e le differenze nei giochi oscillavano tra il 60/80 %.

Defragg
08-05-2007, 17:13
bisogna anche tener conto del diverso apporto della cpu però..

già, peccato che non si tratti di una semplice addizione quella del risultato del 3dm

tony73
08-05-2007, 17:15
Con queste premesse sta scheda non è niente male:

1) i driver ancora non sono ad HOC,quindi si puo' miglirare sensibilmente
2) a quel prezzo abbiamo una scheda che a default se la gioca con la ben piu costosa GTX
3) sotto overclock sta GPU mette il turbo,quelli come me con l'impianto a liquido sbavano ormai da 2 o 3 giorni :D (e sbaveremo ancora di piu tra un po'!)

la palla adesso al fine NDA...ma che si muova ;)

ale0bello0pr
08-05-2007, 17:17
Con queste premesse sta scheda non è niente male:

1) i driver ancora non sono ad HOC,quindi si puo' miglirare sensibilmente
2) a quel prezzo abbiamo una scheda che a default se la gioca con la ben piu costosa GTX
3) sotto overclock sta GPU mette il turbo,quelli come me con l'impianto a liquido sbavano ormai da 2 o 3 giorni :D (e sbaveremo ancora di piu tra un po'!)

la palla adesso al fine NDA...ma che si muova ;)


x me hai centrato in pieno ;) (è come mettere a una Clio il NOS....e se la gioca con una ferrari :asd:)

A.L.M.
08-05-2007, 17:30
Per uscire dal loop delle ipotesi, meglio buttarla sul tecnico... :D

Originally posted by Jawed
Last night I realised that R600's ALU organisation offers another fundamental advantage (a direct inheritance from Xenos, prolly). Since each of the four shader units contains five 16-way ALUs, ATI's fine-grained ALU-redundancy scheme works a charm. In this setup, a 17th ALU pipeline is added to each array. So the redundancy overhead is 6%. (The theory is that each of Xenos's three 16-way ALUs have a 17th pipeline for redundancy.)

If R600 was implemented as lots of smaller ALUs (e.g. to build a sequential scalar GPU like G80) then the redundancy overhead would be significantly higher.

Again, another indication of evolution...

Jawed

Chi si cimenta nel commentare queste riflessioni apparse su Beyond3D? :O

DVD2005
08-05-2007, 17:38
ricordo che la vga è cloccata @XTX ;)

cmq per completare, lo score totale sembra passare dai miei 6.551 a 10.646.

;)

mica male ;)

maeco84
08-05-2007, 17:41
cmq a titolo di confronto ecco i risultati del mio sistema al 3dMark06, sempre tenendo quei risultati come validi:

VGA

----------X1900XT(@XTX)------- ---HD2900XT

SM2.0---------2454-------------------- 4542

SM3.0---------2743-------------------- 5071


CPU

----------E6600(@3,00GHz)------- --- E6700

----------------2752-------------------- 2587

Se fossero veri, ci farei un pensierino visto che va quasi il doppio... e che se vendessi la mia X1900XT forse con 300€ la riuscirei pure a prendere...

Marko#88
08-05-2007, 17:48
risultato credibile, con cpu umana e chiaro...potrebbe sembrare tranquillamente...e le prestazioni sarebbero buone...bisogna vedere esattamente quanto costerà, ma promette bene...

Tidus.hw
08-05-2007, 17:48
Se fossero veri, ci farei un pensierino visto che va quasi il doppio... e che se vendessi la mia X1900XT forse con 300€ la riuscirei pure a prendere...

sarebbe una ladrata a 300 euro xD

DVD2005
08-05-2007, 17:50
sarebbe una ladrata a 300 euro xD

penso intendesse 300 euro di tasca + 100 della vendita della sua vga ;)

Skullcrusher
08-05-2007, 17:55
risultato credibile, con cpu umana e chiaro...potrebbe sembrare tranquillamente...e le prestazioni sarebbero buone...bisogna vedere esattamente quanto costerà, ma promette bene...

All'incirca costerà sui 400€ ;)

maeco84
08-05-2007, 18:01
penso intendesse 300 euro di tasca + 100 della vendita della sua vga ;)

Esatto :D

Foglia Morta
08-05-2007, 18:08
noto solo ora che tra le immagini postate da A.L.M. c'è questa:

http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-20.JPG

revision A13 , quella che secondo hexus può andare a 1Ghz e che secondo qualche overclocker ( non ricordo chi , sampsa o qualcun'altro ) può fare 1Ghz 24/7 con un buon impianto a liquido :D

Marko#88
08-05-2007, 18:11
All'incirca costerà sui 400€ ;)

se le prestazioni saranno confermata sarà un'ottima scheda, costa poco più di una gts 640 ma va come una gtx in pratica...manca poco ormai...:)

appleroof
08-05-2007, 18:18
se le prestazioni saranno confermata sarà un'ottima scheda, costa poco più di una gts 640 ma va come una gtx in pratica...manca poco ormai...:)

Credo fosse praticamente una scelta obbligata (il rapporto prezzo/prestazioni) per recuperare da più punti di vista il forte ritardo ed il clima che si era creato attorno (mesi fa pronosticavo proprio questa situazione :D :D )

Questo non toglie che sia un'ottima cosa per chi si appresta a cambiare vga, anche perchè se non sicuramente almeno probabilmente porterà i prezzi nvidia al ribasso (se non quelli delle vga attuali, sicuramente quelli delle vga a venire)....ben tornata concorrenza! :)

fede27
08-05-2007, 18:21
Questo non toglie che sia un'ottima cosa per chi si appresta a cambiare vga, anche perchè se non sicuramente almeno probabilmente porterà i prezzi nvidia al ribasso (se non quelli delle vga attuali, sicuramente quelli delle vga a venire)....ben tornata concorrenza! :)

Quoto. Suonerà blasfemo ma credo possa essere più interessante il posizionamento della scheda in una fascia di prezzo molto bassa (per essere una high-end) piuttosto che vada più della 8800gtx..

CIaO

DVD2005
08-05-2007, 18:23
Quoto. Suonerà blasfemo ma credo possa essere più interessante il posizionamento della scheda in una fascia di prezzo molto bassa (per essere una high-end) piuttosto che vada più della 8800gtx..

CIaO

vero e se uno ha un monitor sui 19"........

ATi7500
08-05-2007, 18:25
vero e se uno ha un monitor sui 19"........

ad esempio il nostro :p in effetti per chi non usa risoluzioni superiori a 1600x1200, andare meno, come o più di una 8800GTX non può fregar de meno.

bYeZ!

DVD2005
08-05-2007, 18:26
ad esempio il nostro :p in effetti per chi non usa risoluzioni superiori a 1600x1200, andare meno, come o più di una 8800GTX non può fregar de meno.

bYeZ!

ad esempio... :D

thedarkest
08-05-2007, 18:27
per giocare a 1440x900, quale scheda r600 o derivati mi consigliate?? con dettagli al max senza filtri

Marko#88
08-05-2007, 18:30
Credo fosse praticamente una scelta obbligata (il rapporto prezzo/prestazioni) per recuperare da più punti di vista il forte ritardo ed il clima che si era creato attorno (mesi fa pronosticavo proprio questa situazione :D :D )

Questo non toglie che sia un'ottima cosa per chi si appresta a cambiare vga, anche perchè se non sicuramente almeno probabilmente porterà i prezzi nvidia al ribasso (se non quelli delle vga attuali, sicuramente quelli delle vga a venire)....ben tornata concorrenza! :)

sante parole!!

ale0bello0pr
08-05-2007, 18:33
Infatti:) invece di essere infastidite le persone che preferiscono nVidia ad AMD dovrebbero essere contentissime.....:rolleyes:
come minimo le schede HIGH END (quindi GTX/ULTRA) dovranno calare i prezzi diciamo del 20-25% se tutto fosse confermato il 14;)

Simon82
08-05-2007, 18:34
noto solo ora che tra le immagini postate da A.L.M. c'è questa:

http://ialan12.myweb.hinet.net/MSI2900xt/MSI2900XT-20.JPG

revision A13 , quella che secondo hexus può andare a 1Ghz e che secondo qualche overclocker ( non ricordo chi , sampsa o qualcun'altro ) può fare 1Ghz 24/7 con un buon impianto a liquido :D

Mhh... 10ma settimana del 2007...meta' febbraio..sembrerebbe abbastanza vecchiotto. ;)

Conferma comunque quel che vociferava circa il ring di metallo incollato al punto da rendere difficile l'eventuale rimozione essendo il die piu' basso rispetto a quello un po' come succedeva sui primi R300.

Il die e' comunque impressionante.

Simon82
08-05-2007, 18:37
La retromarcia continua... :asd:





Bisognerebbe capire con che drivers l'hanno fatto, ma comunque quel punteggio nettamente migliore nel test SM3 mi farebbe ben sperare anche per i giochi shader intensive... Comunque si attende qualche test più attendibile, ma soprattutto di real gaming: il 3DMark ha un po' rotto... :fagiano:
Proprio il fatto che si vedano solo 3DMark un po' mi preoccupa..

Dexther
08-05-2007, 18:39
Proprio il fatto che si vedano solo 3DMark un po' mi preoccupa..

non credo che sia un elemento preoccupante, del resto ormai è una moda :boh:

ale0bello0pr
08-05-2007, 18:41
non credo che sia un elemento preoccupante, del resto ormai è una moda :boh:

da quando kingpin ha realizzato lo spot sul 3dmark con le 8800GTX in SLI e il QX6700 hai ragione.... :doh:
speriamo non lo facciano anche con R600....:mbe:

Simon82
08-05-2007, 18:43
non credo che sia un elemento preoccupante, del resto ormai è una moda :boh:

Lo e' sempre stata ma non cosi' tanto e unicamente per una scheda al pre lancio. Non voglio allarmare nessuno, sicuramente non ce n'e bisogno ne tantomeno ce ne sono le motivazioni. Semplicemente trovo strano che con tutti i giochi che ci sono da provare vengano pubblicizzati solo questi single test. ;)

Iantikas
08-05-2007, 18:46
ad esempio il nostro :p in effetti per chi non usa risoluzioni superiori a 1600x1200, andare meno, come o più di una 8800GTX non può fregar de meno.

bYeZ!

questo ragionamento nn mi vede concorde...la potenza ke offre una gpu secondo me nn'è mai abbastanza anke x ki usa risoluzioni "basse" tipo 1600x1200 o 1680x1050...

...anke xkè se anke fosse ke attualmente sia una ke l'altra riescono a garantire gameplay fluido a tali risoluzioni in tutti i gioki con settaggi al max...in futuro usciranno sicuramente gioki + pesanti dove l'ipotetica potenza in + di una delle due skede può fare molto comodo e potrebbe fare la differenze tra un gameplay fluido e uno non anke a queste risoluzioni "basse" (e x futuro nn si intendono certo anni ma giusto circa 6 mesi, ke mediamente è la quantità di tempo ke una GPU top riesce a garantire gameplay fluido a settaggi elevati in tutti i gioki in commercio, poi inizia a cedere)...

...senza contare ke ipotetike performance superiori a queste risoluzioni anke attualmente si potrebbero sfruttare x es. abilitando un AA oltre i "canonici" 4x o abilitando "Adaptive/Trasparent" AA (impostazione praticamente inattivabile, se nn a spese di un ottimale fluidità, anke "solo" a 1600x1200 in quasi tutti i gioki attuali con skede della passata generazioni tipo X1900XTX o 7900GTX)...

...ciao

appleroof
08-05-2007, 18:55
Quoto. Suonerà blasfemo ma credo possa essere più interessante il posizionamento della scheda in una fascia di prezzo molto bassa (per essere una high-end) piuttosto che vada più della 8800gtx..

CIaO

a me in generale non sembra per nulla blasfemo, anzi :) (prima o poi dovrò pure io cambiare vga :D ) sono convinto che i prezzi delle 8800gtx e gts sono stati assai "influenzati" dalla mancanza di concorrenza, e d'altronde dal loro punto di vista nessuno può biasimarli


Proprio il fatto che si vedano solo 3DMark un po' mi preoccupa..

C'è poco da fare: ormai quel bench ha un "fascino" troppo forte, come se rispecchiasse fedelmente e al 100% le prestazioni con i giochi...

appleroof
08-05-2007, 18:56
questo ragionamento nn mi vede concorde...la potenza ke offre una gpu secondo me nn'è mai abbastanza anke x ki usa risoluzioni "basse" tipo 1600x1200 o 1680x1050...

...anke xkè se anke fosse ke attualmente sia una ke l'altra riescono a garantire gameplay fluido a tali risoluzioni in tutti i gioki con settaggi al max...in futuro usciranno sicuramente gioki + pesanti dove l'ipotetica potenza in + di una delle due skede può fare molto comodo e potrebbe fare la differenze tra un gameplay fluido e uno non anke a queste risoluzioni "basse" (e x futuro nn si intendono certo anni ma giusto circa 6 mesi, ke mediamente è la quantità di tempo ke una GPU top riesce a garantire gameplay fluido a settaggi elevati in tutti i gioki in commercio, poi inizia a cedere)...

...senza contare ke ipotetike performance superiori a queste risoluzioni anke attualmente si potrebbero sfruttare x es. abilitando un AA oltre i "canonici" 4x o abilitando "Adaptive/Trasparent" AA (impostazione praticamente inattivabile, se nn a spese di un ottimale fluidità, anke "solo" a 1600x1200 in quasi tutti i gioki attuali con skede della passata generazioni tipo X1900XTX o 7900GTX)...

...ciao

Sono d'accordo: in ottica longevità hai senza dubbio ragione, penso che "godano" giustamente proprio per quello :D

In ogni caso siamo arrivati alla paradossale situazione che se giochi a 1280x1024 con queste schede (dalla 8800gts in sù) devi mettere in conto anche il "supporto" del processore...:rolleyes:

Dexther
08-05-2007, 18:59
Lo e' sempre stata ma non cosi' tanto e unicamente per una scheda al pre lancio. Non voglio allarmare nessuno, sicuramente non ce n'e bisogno ne tantomeno ce ne sono le motivazioni. Semplicemente trovo strano che con tutti i giochi che ci sono da provare vengano pubblicizzati solo questi single test. ;)

mmm guarda io credo che i bencher che hanno ricevuto dei sample sono appunto tali, cioè persone che collegano l'hw solo al bench più che all'applicativo reale :p
"crushing 3D Mark WR : priceless" :sofico:

A.L.M.
08-05-2007, 19:09
Lo e' sempre stata ma non cosi' tanto e unicamente per una scheda al pre lancio. Non voglio allarmare nessuno, sicuramente non ce n'e bisogno ne tantomeno ce ne sono le motivazioni. Semplicemente trovo strano che con tutti i giochi che ci sono da provare vengano pubblicizzati solo questi single test. ;)

Beh, in realtà qualche tentativo di test di gioco c'è stato, ma obiettivamente fare una comparazione tra schede su bench "reali" è molto più complicato che far partire un 3DMark. Bisogna anche aggiungere che l'NDA è stato più stringente che in altre occasioni, e chi è in grado di fare certi test (i siti specializzati) non avevano la possibilità di far trapelare nulla o quasi, nel caso in cui l'avessero firmato. ;)

Simon82
08-05-2007, 19:29
Beh, in realtà qualche tentativo di test di gioco c'è stato, ma obiettivamente fare una comparazione tra schede su bench "reali" è molto più complicato che far partire un 3DMark. Bisogna anche aggiungere che l'NDA è stato più stringente che in altre occasioni, e chi è in grado di fare certi test (i siti specializzati) non avevano la possibilità di far trapelare nulla o quasi, nel caso in cui l'avessero firmato. ;)

A parte il 3DMark che continua ad apparire come se niente fosse... questo mi lascia un po' a pensare. ;)

Simon82
08-05-2007, 19:31
E via...

http://www.iamxtreme.net/video/r600/2900XT1024_08.PNG

Simon82
08-05-2007, 19:32
http://www.iamxtreme.net/video/r600/2900XT1024_06.PNG

DjLode
08-05-2007, 19:34
per giocare a 1440x900, quale scheda r600 o derivati mi consigliate?? con dettagli al max senza filtri

Direi un R600 non top di gamma. Diciamo una XL o, massimo massimo, una XT. Ovviamente per rimanere sicuri per qualche periodo. Sicuramente anche una 2600 dovrebbe per i primi tempi garantirti una certa fluidità, ma poi? Ovviamente in attesa di riscontri reali su giochi reali e pesanti. Quanto sopra è il mi pensiero :)

tony73
08-05-2007, 19:34
Mhh... 10ma settimana del 2007...meta'

Conferma comunque quel che vociferava circa il ring di metallo incollato al punto da rendere difficile l'eventuale rimozione essendo il die piu' basso rispetto a quello un po' come succedeva sui primi R300.



Infatti girano voci buie per l'implementazione dei WB...mi sa che noi "liquidosi" dovremo aspettare dei WB fatti ad hoc :(

per qualche settimana dovro' sorbirmi la scheda col reattore :cry: ovviamente prima me ne accertero' di persona.

DjLode
08-05-2007, 19:35
http://www.ramthor.de/falsezilla.htm

"ATI Radeon HD2900 GT is about 20% faster than nVidia
GeForce 8800 Ultra, the HD2900 XTX is about 300% faster than 8800Ultra @ QuadSLI."

Ovviamente è una presa in giro di Fudzilla ma direi che, esagerando, non ci va troppo lontano ad essere un emulo abbastanza "serio".

appleroof
08-05-2007, 19:45
http://www.ramthor.de/falsezilla.htm

"ATI Radeon HD2900 GT is about 20% faster than nVidia
GeForce 8800 Ultra, the HD2900 XTX is about 300% faster than 8800Ultra @ QuadSLI."

Ovviamente è una presa in giro di Fudzilla ma direi che, esagerando, non ci va troppo lontano ad essere un emulo abbastanza "serio".

ma Lol!! :asd: :asd:

ale0bello0pr
08-05-2007, 19:46
http://www.ramthor.de/falsezilla.htm

"ATI Radeon HD2900 GT is about 20% faster than nVidia
GeForce 8800 Ultra, the HD2900 XTX is about 300% faster than 8800Ultra @ QuadSLI."

Ovviamente è una presa in giro di Fudzilla ma direi che, esagerando, non ci va troppo lontano ad essere un emulo abbastanza "serio".

:rotfl:

Simon82
08-05-2007, 19:51
OT..

Grey 7
08-05-2007, 20:03
http://www.ramthor.de/falsezilla.htm

"ATI Radeon HD2900 GT is about 20% faster than nVidia
GeForce 8800 Ultra, the HD2900 XTX is about 300% faster than 8800Ultra @ QuadSLI."

Ovviamente è una presa in giro di Fudzilla ma direi che, esagerando, non ci va troppo lontano ad essere un emulo abbastanza "serio".

eh bhe, ci manca poco. Addirittura 300% in piu di un quad :asd:

bladerunner86
08-05-2007, 20:04
simon82 la fonte del 3dmark??? cinese?

parcher
08-05-2007, 20:06
EDIT

belin
08-05-2007, 20:10
...vi ricordate il menù dell'articolo di Vr-Zone ancora vuoto? come mossa niente male, l'hype è aumentato ancor di più...però...gli amici di TechPowerUp scrivono ciò:

Blank ATI HD 2000 Review at VR-Zone
On May 14th, six days from now, the non-disclosure agreement (NDA) regarding AMDs HD 2000 graphics card lineup will be lifted and everyone will be informed about it by various websites and print magazines. As this day comes closer and closer more and more bits of information and misinformation get published around the internet. The VR-Zone seems to have a comprehensive article in the works right now, judging on the traces they left on their website. There you will find headlines about HD 2400, HD 2600 and HD 2900 products and even one about mobile graphics solutions called Radeon Mobility 2000 Series. Furthermore there is evidence about DirectX 10 demos, special antialiasing modes, Overclocking and 'UnReal Overclocking' - whatever that means. Interestingly there isn't a chapter dedicated to a HD 2900 XTX yet.
Of course we here at techPowerUp! will have a decent review online by May 14th, but don't expect us to come up with a similar approach like the VR-Zone in the meantime.

...come vi sembra questa frase? a me scritta moooolto apposta...:cool:

a) TechPowerUp fa finta di non sapere che vga ha presentato ATi...
b) TechPowerUp sa che ci sarà anche una XTX e si "meraviglia" che Vr-Zone non l'abbia messa nella review...
c) TechPowerUp e Vr-Zone non ci vogliono dire che il 14 ci sarà anche una XTX...

...eh eh eh...qui ci nascondono qualcosa...:D

leoneazzurro
08-05-2007, 20:11
Chi si cimenta nel commentare queste riflessioni apparse su Beyond3D? :O

Quella è facile ;) per aumentare le rese si aggiunge una pipeline in più, cosicchè nel caso se ne abbia una difettosa tra quelle di "default" si utilizza quella in più. La ridondanza è un tema classico, per esempio nelle memorie cache si usano più celle di quelle strettamente necessarie in modo da poterle utilizzare nel caso di difetti.
Comunque se l'organizzazioen di R600 è come ha detto Yossarian, Jawed è ancora un pò lontano dalla verità.

leoneazzurro
08-05-2007, 20:12
...vi ricordate il menù dell'articolo di Vr-Zone ancora vuoto? come mossa niente male, l'hype è aumentato ancor di più...però...gli amici di TechPowerUp scrivono ciò:

Blank ATI HD 2000 Review at VR-Zone
On May 14th, six days from now, the non-disclosure agreement (NDA) regarding AMDs HD 2000 graphics card lineup will be lifted and everyone will be informed about it by various websites and print magazines. As this day comes closer and closer more and more bits of information and misinformation get published around the internet. The VR-Zone seems to have a comprehensive article in the works right now, judging on the traces they left on their website. There you will find headlines about HD 2400, HD 2600 and HD 2900 products and even one about mobile graphics solutions called Radeon Mobility 2000 Series. Furthermore there is evidence about DirectX 10 demos, special antialiasing modes, Overclocking and 'UnReal Overclocking' - whatever that means. Interestingly there isn't a chapter dedicated to a HD 2900 XTX yet.
Of course we here at techPowerUp! will have a decent review online by May 14th, but don't expect us to come up with a similar approach like the VR-Zone in the meantime.

...come vi sembra questa frase? a me scritta moooolto apposta...:cool:

a) TechPowerUp fa finta di non sapere che vga ha presentato ATi...
b) TechPowerUp sa che ci sarà anche una XTX e si "meraviglia" che Vr-Zone non l'abbia messa nella review...
c) TechPowerUp e Vr-Zone non ci vogliono dire che il 14 ci sarà anche una XTX...

...eh eh eh...qui ci nascondono qualcosa...:D

4) non c'è una XTX (per ora)

Kharonte85
08-05-2007, 20:36
4) non c'è una XTX (per ora)
Anche secondo me la piu' probabile...

DakmorNoland
08-05-2007, 20:42
4) non c'è una XTX (per ora)

Ma la XTX a che serve? La XT tirerà già troppo! :D

Grey 7
08-05-2007, 20:51
speriamo, ma anche quel "troppo" non sarà mai abbastanza quindi una xtx (o altra sigla) ci sarà di sicuro...magari dopo qualche mese

DakmorNoland
08-05-2007, 21:15
speriamo, ma anche quel "troppo" non sarà mai abbastanza quindi una xtx (o altra sigla) ci sarà di sicuro...magari dopo qualche mese

Se ci sarà la differenza che c'era tra x1900xt e xtx, allora possono anche non farla! :p

Zlatan91
08-05-2007, 21:25
sarebbe meglio fare uscire anche la xtx il 14.........poi con sta storia del super overclock....la maggiorparte degli utenti la compra e non l overclokka.....il che farlo richiede una spesa supplementare per quei 600 punti in piu al 3dmark...bha....poi cosa overclokki na scheda cosi.......

va bhe in attesa di lunedi....:)

belin
08-05-2007, 21:25
4) non c'è una XTX (per ora)

Anche secondo me la piu' probabile...

...anch'io sono sicuro che la XTX non uscirà...e per questo quella frase, scritta in quel modo, mi ha insospettito... Interestingly there isn't a chapter dedicated to a HD 2900 XTX yet. C'era bisogno di confermarlo?!

:sofico:

A.L.M.
08-05-2007, 21:31
Il parere di Sampsa Kurri sul posizionamento della HD2900XT (e' sotto NDA):

Originally Posted by Sampsa
Yes true, GeForce 8800 GTX and Ultra are the most powerful graphics cards in the market.

Originally Posted by DilTech
Is that after the release of the HD 2900's?

Originally Posted by Sampsa
Yes.. HD 2900 XT (there won't be any other models) will compete against GTS.


Intanto sugli altri forum si prosegue con i test in mega OC...

http://www.imagebanana.com/img/b11ska11/xh29.jpg


Tornando ad argomenti più tecnici, sempre a proposito di redundancy in R600 e architettura della serie HD2000, ho trovato un file molto interessante, date un'occhiata alla FIG.6 (e leggete la spiegazione), non vi ricorda nulla? :sofico:

http://www.savefile.com/files/705168

DVD2005
08-05-2007, 21:36
Il parere di Sampsa Kurri sul posizionamento della HD2900XT (e' sotto NDA):


i post che hai quotato riportano la HD2900XT sulla terra, e' un'altalena continua.

bluefrog
08-05-2007, 21:37
Non ci si capisce più un c***o... aspettiamo ste benedette rece definitive :rolleyes:

loperloper
08-05-2007, 21:41
credete che ci mettano così tanto a fare uscire la xtx?io direi proprio di no, anzi è già li pronta pronta che aspetta solo i risultati della sorella minore...secondo voi dopo aver progettato tutta una nuova architettura, gli costa così tanto aggiungere 512mb di ram e tirare un po su le frequenze?no, proprio no...anzi forse hanno dovuto fare il lavoro inverso: pregettare la xtx e castrarla per avere una vga che abbia le stesse caratteristiche della sorella maggiore ma ad un costo contenuto....una volta visti i risultati(finanziari e penso anche come compatibilità hardware), se positivi, all'uscita della xtx il passo è breve (tutto imho ovviamente) ;)

A.L.M.
08-05-2007, 21:43
i post che hai quotato riportano la HD2900XT sulla terra, e' un'altalena continua.

Sampsa (era a Tunisi) non si è ancora addentrato nel particolare delle prestazioni di R600, ha solamente riaffermato una dichiarazione ufficiale di ATi. Come al solito può voler dire tutto e niente. ;)

belin
08-05-2007, 21:47
Sampsa si nasconde...eh eh eh...c'era lui ad overcloccare le vga ATi durante alcune conferenze su X1K...il ragazzo la sa lunga, non mi aspetto di leggere nei suoi messaggi, sinchè c'è NDA, "XT è la più veloce vga del mondo"...

;)

Athlon 64 3000+
08-05-2007, 21:53
e allora perchè dice che la hd2900xt andrebbe come la 8800GTS?

belin
08-05-2007, 22:00
...perchè non ha alcun interesse a dire il contrario...tutti quelli che erano a Tunisi stanno ben zitti, altri che possono parlare sparano risultati del 3Dmark come se piovesse...!

;)

leoneazzurro
08-05-2007, 22:00
Più che altro ha confermato che andrebbe meno della GTX.

A.L.M.
08-05-2007, 22:00
e allora perchè dice che la hd2900xt andrebbe come la 8800GTS?

Perchè ripete semplicemente quello che ha detto AMD. Kinc ed altri non hanno firmato nessun NDA, quindi possono dire quello che gli pare. Anche Kombatant, che essendo un ex moderatore di Rage3D si è sbottonato più di altri, pur lavorando per AMD, comunque non ha ancora detto nulla di "compromettente".

Athlon 64 3000+
08-05-2007, 22:06
Perchè ripete semplicemente quello che ha detto AMD. Kinc ed altri non hanno firmato nessun NDA, quindi possono dire quello che gli pare. Anche Kombatant, che essendo un ex moderatore di Rage3D si è sbottonato più di altri, pur lavorando per AMD, comunque non ha ancora detto nulla di "compromettente".

sarebbe una grossa delusione se andasse come la 8800GTS che è parecchio più penta della 8800GTX

Athlon 64 3000+
08-05-2007, 22:08
Più che altro ha confermato che andrebbe meno della GTX.

già questo non è positivo.
:(

Foglia Morta
08-05-2007, 22:09
Perchè ripete semplicemente quello che ha detto AMD. Kinc ed altri non hanno firmato nessun NDA, quindi possono dire quello che gli pare. Anche Kombatant, che essendo un ex moderatore di Rage3D si è sbottonato più di altri, pur lavorando per AMD, comunque non ha ancora detto nulla di "compromettente".

Ora pensi che Fuad abbia detto il vero tempo fa ? :confused:

Comunque non tornerebbero con le impressioni di Gibbo che aveva testato la XT con una GTX 590Mhz e shader a 1400Mhz

Anche se lo shader core non è tutto in una gpu aspettando lo scadere dell' NDA tengo per buono questo :D :

si; circa 518 Gflops contro 477; il problema è che a distanza di 6 mesi dall'uscita ancora non è chiaro se la mul sia o meno indipendente (a questo punto appare difficile che il problema siano i driver "acerbi"). In fondo, anche lo shader core di G7x, sulla carta, è più veloce di quello di R5x0. Sulla carta ;)

ale0bello0pr
08-05-2007, 22:12
Perchè ripete semplicemente quello che ha detto AMD. Kinc ed altri non hanno firmato nessun NDA, quindi possono dire quello che gli pare. Anche Kombatant, che essendo un ex moderatore di Rage3D si è sbottonato più di altri, pur lavorando per AMD, comunque non ha ancora detto nulla di "compromettente".

ti sbagli Kinc era a Tunisi con Sampa e quindi...per forza ha firmato l'NDA....

Hi everyone,
Since AMD's Radeon HD 2900 XT launch is coming up I thought it would be proper to start a thread for overclocking results of this card. I currently have one card to play with but since the NDA is still up, I won't post any results yet.
I know Kinc also has the card since we met in Tunis so some results should be coming from there also

e cmq sono proprio loro a dire che la HD 2900 XT va come una GTS....ovviamente..per lasciare la sorpresa....
ma scusate VRZONE ha dedicato ben 20 pagine per una normale vga?? Dai arrivateci....
-5
IMHO penso che nVidia sappia tutto...e arriva...a breve la 8900..e 8950GX2...:)

TecnoWorld8
08-05-2007, 22:14
ecco, ma la 8900 quando arriva? perchè se è dietro l'angolo, meglio attendere quella e prenderla appena esce...

ho fatto così per la CPU, ad agosto scorso e sono felicissimo di aver preso l'ultima architettura disponibile, appena uscita...

loperloper
08-05-2007, 22:15
già questo non è positivo.
:(

be ma che ti aspettavi?se del resto non è la punta di diamante di ati mi sembra anche normale che stia alla pari o sia superiore solo alla gts, probabilemente una possibile xtx si mangia tranquillamente una 8800 ultra....ovviamente contando magari delle buone doti in overclock si dovrebbe riuscire a superare di molto una gtx(cioè se non fosse per i 256mb di ram di differenza si potrebbe tranquillamente dire che ati è almeno di una spanna sopra nvidia...) ma essendo due architetture sviluppate in modo diverso un confronto alla cieca è difficile da farsi...

Mister Tarpone
08-05-2007, 22:16
IMHO penso che nVidia sappia tutto...e arriva...a breve la 8900..e 8950GX2...:)

....e allora si poteva anche risparmiare la Ultra.

Kharonte85
08-05-2007, 22:19
ma scusate VRZONE ha dedicato ben 20 pagine per una normale vga??
:eek: pensa che per l'articolo della 8800gtx erano 28 pag...:asd:

Ma che ci incastra sta roba? :mbe:

ale0bello0pr
08-05-2007, 22:19
....e allora si poteva anche risparmiare la Ultra.

Ti rispondo con una semplice parola...
MARKETING

ovviamente nn dico il mese prox...ma a Settembre quasi sicuro...:)

Foglia Morta
08-05-2007, 22:19
ti sbagli Kinc era a Tunisi con Sampa e quindi...per forza ha firmato l'NDA....e cmq sono proprio loro a dire che la HD 2900 XT va come una GTS....ovviamente..per lasciare la sorpresa....
ma scusate VRZONE ha dedicato ben 20 pagine per una normale vga?? Dai arrivateci....
-5
IMHO penso che nVidia sappia tutto...e arriva...a breve la 8900..e 8950GX2...:)

macchè... sono 22 pagine di cui la 20 , 21 e 22 sono ancora senza nome. comunque alcune pagine sono dedicate alla HD2400 , HD2600 e alle gpu mobile :D

comunque se vuoi dire che ci sarà una sorpresa fin qui penso ci siamo arrivati tutti , l'ha detto anche Kombatant , resta da vedere cosa.

Athlon 64 3000+
08-05-2007, 22:19
be ma che ti aspettavi?se del resto non è la punta di diamante di ati mi sembra anche normale che stia alla pari o sia superiore solo alla gts, probabilemente una possibile xtx si mangia tranquillamente una 8800 ultra....ovviamente contando magari delle buone doti in overclock si dovrebbe riuscire a superare di molto una gtx(cioè se non fosse per i 256mb di ram di differenza si potrebbe tranquillamente dire che ati è almeno di una spanna sopra nvidia...) ma essendo due architetture sviluppate in modo diverso un confronto alla cieca è difficile da farsi...

a me andrebbe bene se andasse massimo un 10-15% in meno della 8800GTX ma non può essere veloce o poco più veloce della 8800GTS che è parechcio castrata rispetto alla 8800GTX

dantes76
08-05-2007, 22:20
..
-5
IMHO penso che nVidia sappia tutto...e arriva...a breve la 8900..e 8950GX2...:)

infatti, pensavo propio a questo, il lancio della 8800 ultra ha coinciso un po' troppo con il lancio della futura x2900, un po come andare volere a riposizionare il top di gamma, per alzare la soglia prestazionale, per poter dire che la gtx non e' il piu' il topo di gamma: per la serie, rendo obsoleto io[che lo produco] un prodotto, prima che lo facciano altri...

ale0bello0pr
08-05-2007, 22:22
:eek: pensa che per l'articolo della 8800gtx erano 28 pag...:asd:

Ma che ci incastra sta roba? :mbe:

Chiudendo subito l'OT bisogna pensare che quando nVidia ha introdotto l'eccelza 8800GTX era una rivoluzione in quanto le prime schede in assoluto DX10...cmq mi notificano 22 pag ..ok :D

belin
08-05-2007, 22:23
...imho alcuni di voi hanno bisogno di ansiolitici...:D

...da qui al 14 ne leggeremo di tutti i colori e sono sicuro che in molti si nasconderanno. ;)

Athlon 64 3000+
08-05-2007, 22:28
vedremo il 14,cosi finalmente si saprà tutto

mrt75
08-05-2007, 22:29
Bo'.... Io penso che andra' come la gtx e meglio con le DX10,e penso anche che a sett. Nvidia replica con 8900.Se non arriva lalle GTX son messi davvero male in AMD,xche il tempo lo hanno avuto x fare 1 VGA all'altezza delle aspettative.... poi si vedra'...

ale0bello0pr
08-05-2007, 22:29
nuove dichiarazioni da Kinc...

Klimpen717 wrote:
Does anyone know when th XTX is about to hit the market?
All I have seen is news about the XT but the "beast"? Has everyone forgot about it? When, where and how will we see it? Anyone?


So, is the ATI HD 2900XT 512 MB DDR3 the fastest and best they will release before the summer is over?

Kinc
Yes. HD 2900XT 1024MB GDDR4 will be released at the same time, but only to systembuilders like; DELL, Alienware and so on. If you will be able to buy it, it will cost much more and come with slightly slightly less performence and wont fit in to any normal housing.

Kharonte85
08-05-2007, 22:30
Chiudendo subito l'OT bisogna pensare che quando nVidia ha introdotto l'eccelza 8800GTX era una rivoluzione in quanto le prime schede in assoluto DX10...cmq mi notificano 22 pag ..ok :D
Prevedevo questa risposta...:asd:

Cmq se bisogna dedurre la velocita' di una scheda dal numero di pag della recension stiamo messi proprio male :doh: ...piuttosto chiedo alle viscere di mucca...:D
...imho alcuni di voi hanno bisogno di ansiolitici...:D

...da qui al 14 ne leggeremo di tutti i colori e sono sicuro che in molti si nasconderanno. ;)
E altri che faranno terrorismo...
nuove dichiarazioni da Kinc...

Klimpen717 wrote:
Does anyone know when th XTX is about to hit the market?
All I have seen is news about the XT but the "beast"? Has everyone forgot about it? When, where and how will we see it? Anyone?


So, is the ATI HD 2900XT 512 MB DDR3 the fastest and best they will release before the summer is over?

Kinc
Yes. HD 2900XT 1024MB GDDR4 will be released at the same time, but only to systembuilders like; DELL, Alienware and so on. If you will be able to buy it, it will cost much more and come with slightly slightly less performence and wont fit in to any normal housing.
Ulteriori conferme...

Foglia Morta
08-05-2007, 22:31
Chiudendo subito l'OT bisogna pensare che quando nVidia ha introdotto l'eccelza 8800GTX era una rivoluzione in quanto le prime schede in assoluto DX10...cmq mi notificano 22 pag ..ok :D

qui sembra che tu voglia dire che R600 è DX10.1 o è solo una mia impressione ?

Smetto di farmi le pippe fino al 14 :D

loperloper
08-05-2007, 22:33
a me andrebbe bene se andasse massimo un 10-15% in meno della 8800GTX ma non può essere veloce o poco più veloce della 8800GTS che è parechcio castrata rispetto alla 8800GTX

io sono convinto che alla fine è tutta questione di driver: è vero si che ati ha avuto 7mesi in più per x2900 ma è anche vero che nvidia ha sfornato driver su driver per la sua serie 8(tra l'altro snobbando letteralmente gli utenti con le altre vga) più o meno ottimizzati.In conclusione direi che ati l hardware c'è l'ha e che i bench che si vedranno o che sono stati diffusi fino ad ora rispecchiano le reali performance solo di nvidia e non di ati, per la quale dovremo aspettare ancora un po....in definitiva sono fiducioso e penso che non avrà nex problema a battere la concorrenza(a giudicare dalle spech almeno)...certo probabilmente la risposta di nvidia è dietro l'angolo ma il discorso dei driver rimane lo stesso, del resto un ipotetica 8900 avrebbe la stessa architettura di 8800....

ale0bello0pr
08-05-2007, 22:38
qui sembra che tu voglia dire che R600 è DX10.1 o è solo una mia impressione ?

Smetto di farmi le pippe fino al 14 :D

IYHO:D

riprendo qualcosa di cui magari nessuno si è accorto...
http://www.imagebanana.com/img/b11ska11/xh29.jpg

cazzarola...fa caldino li dentro è? ..200C.... (Fahreneit?) 95°C?
ma è a default? :rotfl:

Kharonte85
08-05-2007, 22:42
IYHO:D
In Your Humble Opinion

? :stordita:

belin
08-05-2007, 22:49
riprendo qualcosa di cui magari nessuno si è accorto...
http://www.imagebanana.com/img/b11ska11/xh29.jpg

...ecco, come ansiolitico può andare! :D

...più dei 16000 punti (sticaz*i) mi interessano quelle frequenze 1000/1000...eccole che ritornano. aiuto. :eek:

Darkgift
08-05-2007, 22:53
Secondo me se ATI/AMD avesse un prodotto piu performante avrebbe gia tirato fuori proclami sensazionalistici come sta facendo AMD in questi giorni per k10.
Credo che non ci saranno sorprese XT come GTS e Nvidia Regnera' quest'anno. R600 mi puzza tanto di grande gigantesco flop.....in fondo Ati ci era gia andata vicina con r520.......non riuscendo ad implementare le 32 pipelines promesse....ha recuperato dapprima con frequenza stratosferiche e poi con r580......ma a quel punto Nvidia aveva cmq mercato
L'importante cmq è che ste benedette schede escano e basta....xche mi si stanno consumando le biglie ad aspettare di sapere come va quest'altro "Mostro" che puntualmene sara' messo in crisi da uno dei tanti giochi ottimizzati con i piedi che usciranno nei prossimi mesi(o uno dei tanti che gia ci sono)
Qua mi sa tanto che veramente mi faccio una 360 e sti'ca !!!

Foglia Morta
08-05-2007, 23:00
IYHO:D

riprendo qualcosa di cui magari nessuno si è accorto...
http://www.imagebanana.com/img/b11ska11/xh29.jpg

cazzarola...fa caldino li dentro è? ..200C.... (Fahreneit?) 95°C?

in base agli altri dati quel Ghz di gpu potrebbe essere ad aria. Mi riferisco ai 78° di Denny a 871Mhz. Quindi potrebbe anche essere una gpu tirata ma a default. Anche G80 in versione Ultra mi pare raggiunga quella temperatura, quindi IMHO è un ipotesi plausibile

Edit: quei 95° si riferiscono alla gpu o ho commesso un marone :fagiano: ?

loperloper
08-05-2007, 23:07
Secondo me se ATI/AMD avesse un prodotto piu performante avrebbe gia tirato fuori proclami sensazionalistici come sta facendo AMD in questi giorni per k10.
Credo che non ci saranno sorprese XT come GTS e Nvidia Regnera' quest'anno. R600 mi puzza tanto di grande gigantesco flop.....in fondo Ati ci era gia andata vicina con r520.......non riuscendo ad implementare le 32 pipelines promesse....ha recuperato dapprima con frequenza stratosferiche e poi con r580......ma a quel punto Nvidia aveva cmq mercato
L'importante cmq è che ste benedette schede escano e basta....xche mi si stanno consumando le biglie ad aspettare di sapere come va quest'altro "Mostro" che puntualmene sara' messo in crisi da uno dei tanti giochi ottimizzati con i piedi che usciranno nei prossimi mesi(o uno dei tanti che gia ci sono)
Qua mi sa tanto che veramente mi faccio una 360 e sti'ca !!!

no ma la colpa è di questi post "Aspettando...."!! :D ....cioè senza l'oggetto dell'attenzione tutto ciò che viene detto è uguale al nulla....o ma raga sono 6400 risposte piene di tutto e niente!! è incredibile a pensarci :eek: ...qualcosa di vero da tutte ste risposte sarà uscito??non ci resta che aspettare una settimana scarsa.......

Nos89
08-05-2007, 23:10
in base agli altri dati quel Ghz di gpu potrebbe essere ad aria. Mi riferisco ai 78° di Denny a 871Mhz. Quindi potrebbe anche essere una gpu tirata ma a default. Anche G80 in versione Ultra mi pare raggiunga quella temperatura, quindi IMHO è un ipotesi plausibile

Edit: quei 95° si riferiscono alla gpu o ho commesso un marone :fagiano: ?

pfui.la 8800Ultra a 960/2400 fa oltre 20000p:asd:

Foglia Morta
08-05-2007, 23:11
pfui.la 8800Ultra a 960/2400 fa oltre 20000p:asd:

si a LN ;)

Nos89
08-05-2007, 23:13
si a LN ;)

fatto sta che con frequenze inferiori fa punteggi assurdi...;) certo G80 è ha 90nm il che lo limita seriemente a salire di frequenza..

Foglia Morta
08-05-2007, 23:17
fatto sta che con frequenze inferiori fa punteggi assurdi...;) certo G80 è ha 90nm il che lo limita seriemente a salire di frequenza..

sono architetture diverse fatte per lavorare in modo diverso e ottengono diversi risultati in condizioni diverse... ergo paragone del ca**o :)

ale0bello0pr
08-05-2007, 23:19
pfui.la 8800Ultra a 960/2400 fa oltre 20000p:asd:

non penso che tutti abbiamo in casa un pò di sano azoto liquido per far girare ancor meglio le nostre componenti fondamentali...CPU e VGA...:asd: ;)

Nos89
08-05-2007, 23:20
sono architetture diverse fatte per lavorare in modo diverso e ottengono diversi risultati in condizioni diverse... ergo paragone del ca**o :)

spero che tutte e due le case si impegnino al massimo per raffinare il processo produttivo e driver

loperloper
08-05-2007, 23:21
non penso che tutti abbiamo in casa un pò di sano azoto liquido per far girare ancor meglio le nostre componenti fondamentali...CPU e VGA...:asd: ;)

in effetti...e poi che confronto sarebbe se tanto non ci potresti manco giocare?

Nos89
08-05-2007, 23:21
non penso che tutti abbiamo in casa un pò di sano azoto liquido per far girare ancor meglio le nostre componenti fondamentali...CPU e VGA...:asd: ;)

vabbe adesso non voglio fare il fanboy visto che prima della 8800 ho sempre avuto ATI;) però è chiaro che ha frequenze pari G80 rende meglio di Ati R600 pure essendo 7mesi + vecchio

ale0bello0pr
08-05-2007, 23:22
in effetti...e poi che confronto sarebbe se tanto non ci potresti manco giocare?

al max ci fai il piccolo chimico...:fagiano:

ATi7500
08-05-2007, 23:26
vabbe adesso non voglio fare il fanboy visto che prima della 8800 ho sempre avuto ATI;) però è chiaro che ha frequenze pari G80 rende meglio di Ati R600 pure essendo 7mesi + vecchio

1) essendo le architetture diverse, una si trova a proprio agio con frequenze maggiori rispetto all'altra.
2) G80 ha gli shader processors che lavorano a 1.4 GHz, altro che frequenza inferiore.

bYeZ!

Foglia Morta
08-05-2007, 23:27
vabbe adesso non voglio fare il fanboy visto che prima della 8800 ho sempre avuto ATI;) però è chiaro che ha frequenze pari G80 rende meglio di Ati R600 pure essendo 7mesi + vecchio

scusa ma non capisco... fingi di ignorare i 1500 Mhz per lo shader core ?

Sono architetture diverse che lavorano diversamente, ha poco senso andare a cercare la validità di un architettura dalle sue frequenze perchè è solo una variabile fra tante altre che sono state inserite nello stesso progetto. punto .

A.L.M.
08-05-2007, 23:29
Credo che qui molti stiano perdendo il focus della situazione. Vorrei ricordare a tutti che con tutta probabilità il worst case scenario è quello che si desumeva, seppur con tutti i distinguo del caso (le cifre realistiche saranno migliori, imho) da DailyTech, ossia XT che in molti giochi DX9 stacca nettamente la GTS (e comunque si trova più nella fascia di performance della GTX che in quella della GTS, seppur un gradino sotto). Ricordo che la GTX provata da Dailytech non era una GTX stock, inoltre.
Dopodichè rimarrebbero da vedere le performance in alcuni giochi non menzionati da Dailytech ma più indicativi. Infine rimarrebbe l'incognita DX10, che fino a prova contraria incombe pure sulle nVIDIA, e potrebbe riservare molte sorprese.
Tra poche settimane, lo ha confermato anche PCGamesHardware, uscirà almeno il benchmark DX10 basato sulla patch di Call of Juarez. Già lì qualcosina di interessante potrebbe saltare fuori. ;)

Nos89
08-05-2007, 23:29
scusa ma non capisco... fingi di ignorare i 1500 Mhz per lo shader core ?

Sono architetture diverse che lavorano diversamente, ha poco senso andare a cercare la validità di un architettura dalle sue frequenze perchè è solo una variabile fra tante altre che sono state inserite nello stesso progetto. punto .

come? è ho proprio quello che ho detto G80 rende meglio perchè in quel tipo di applicazione è più veloce(R600 sarà più veloce in altre situazioni sicuramente).se poi la metti cosi vorresti forse ignorare i 512bit di R600?

Foglia Morta
08-05-2007, 23:31
come? è ho proprio quello che ho detto G80 rende meglio perchè in quel tipo di applicazione è più veloce.se poi la metti cosi vorresti forse ignorare i 512bit di R600?

alt alt , stai andando in loop :D

Rileggi:

Sono architetture diverse che lavorano diversamente, ha poco senso andare a cercare la validità di un architettura dalle sue frequenze perchè è solo una variabile fra tante altre che sono state inserite nello stesso progetto. punto .

;)

Nos89
08-05-2007, 23:36
vabbe ognuno la pensa a suo modo;)

Pat77
08-05-2007, 23:37
Come qualcuno ha detto precedentemente da quello che trapela mi sembra che r600 sia un chip più dx10 oriented, avendo molti mesi di vantaggio tecnologico.
Personalmente rivedo una situazione simile 7900-x1900.
Comunque il giorno del debutto è vicino, qualcuno sa se nei negozi vi sarannoa anche le x2600xt?

johnson
08-05-2007, 23:55
Il parere di Sampsa Kurri sul posizionamento della HD2900XT (e' sotto NDA):

Quote:
Originally Posted by Sampsa
Yes true, GeForce 8800 GTX and Ultra are the most powerful graphics cards in the market.

Quote:
Originally Posted by DilTech
Is that after the release of the HD 2900's?

Quote:
Originally Posted by Sampsa
Yes.. HD 2900 XT (there won't be any other models) will compete against GTS.





Potrebbe anche intendere che, se la hd2900xt uscisse a 400€, andrebbe sulla stessa fascia di prezzo della GTS. Poi potrebbe anche essere più veloce di una GTX, ma competerebbe con la vga nvidia che occupa quel segmento di mercato.
I segmenti di mercato sono impostati sul prezzo non sulle prestazioni

leoneazzurro
08-05-2007, 23:57
A.L.M., mi potresti dare per favore il link diretto alle parole di Sampsa?

Grazie :)

vicius80
09-05-2007, 00:08
Raga chiunque sia il venditore la cosa quasi certa è che le schede ATI costeranno molto meno delle NVIDIA e quindi questa per forza di cose dovrà abbassare i prezzi ed entrambi diventeranno abbordabili per un pò tutte le tasche:D
W LA CONCORRENZA:D

leoneazzurro
09-05-2007, 00:35
A.L.M., mi potresti dare per favore il link diretto alle parole di Sampsa?

Grazie :)

Fa niente, trovato. Comunque non è chiaro se ciò sia grazie alla GTX o alla Ultra...

Daytona
09-05-2007, 01:40
Visto che in giro si legge che le memorie in overck sono arrivate a 2000 mhz :eek: ... è molto probabile che come chip monti i samsung BJ1A da 1ns :sofico:


...che poi sono gli stessi che monta la 8800GTX :read:

...amche perchè se montasse samsung da 1.1ns piu' di 1800mhz è molto difficile...;)

...ergo dovrebbero essere al 90% Bj1a :cool:

..però ora mi sorge un dubbio ...:mc: ...come mai ATi (ipotizzando bj1a ) le ha cloccate a 1650 e non 1800mhz :confused: ...

...sempre che poi siano a 1650... ma ormai penso che non vi siano piu' dubbi ;)


1100000110100000

Simon82
09-05-2007, 07:00
....e allora si poteva anche risparmiare la Ultra.

Infatti e se esiste la Ultra significa che Nvidia si e' coperta ora in attesa della mossa di AMD. Non credo proprio che le ipotetiche 8900 e 8950GX2 se esisteranno vedranno la luce a breve. Nvidia sa benissimo che qualsiasi scheda AMD fara' uscire, e' in una posizione tale da permettergli di prendersi del tempo coperto dall'attuale G80 che in un modo o nell'altro sara' sul mercato per moolto tempo prima di un die shrink con un'ottimizzazione architetturale di refresh.

In questo mercato per essere in una buona posizione sono diversi i fattori rilevanti, e non solo i frame/s di una manciata superiori o minori della concorrenza.

Simon82
09-05-2007, 07:03
nuove dichiarazioni da Kinc...

Klimpen717 wrote:
Does anyone know when th XTX is about to hit the market?
All I have seen is news about the XT but the "beast"? Has everyone forgot about it? When, where and how will we see it? Anyone?


So, is the ATI HD 2900XT 512 MB DDR3 the fastest and best they will release before the summer is over?

Kinc
Yes. HD 2900XT 1024MB GDDR4 will be released at the same time, but only to systembuilders like; DELL, Alienware and so on. If you will be able to buy it, it will cost much more and come with slightly slightly less performence and wont fit in to any normal housing.
Questa coincide con altre dichiarazioni sulla versione da 1GB che effettivamente potrebbe essere non una versione "pompata" bensi' una versione ad hoc delle richieste degli oem e addirittura con "slightly less performance".

Credo questo possa cominciare ad essere preso come vero e quindi confermerebbe che nei prossimi mesi una presunta XTX non verra' affatto presentata.

A.L.M.
09-05-2007, 08:18
Visto che in giro si legge che le memorie in overck sono arrivate a 2000 mhz :eek: ... è molto probabile che come chip monti i samsung BJ1A da 1ns :sofico:


...che poi sono gli stessi che monta la 8800GTX :read:

...amche perchè se montasse samsung da 1.1ns piu' di 1800mhz è molto difficile...;)

...ergo dovrebbero essere al 90% Bj1a :cool:

..però ora mi sorge un dubbio ...:mc: ...come mai ATi (ipotizzando bj1a ) le ha cloccate a 1650 e non 1800mhz :confused: ...

...sempre che poi siano a 1650... ma ormai penso che non vi siano piu' dubbi ;)


1100000110100000

Penso useranno indifferentemente Hynix e Samsung da 1.0ns.
Il fatto che non le abbiano clockate più in alto è facilmente spiegabile: i 512bit garantiscono un'ampiezza di banda allucinante già con clocks non eccezionali, dunque non ce n'era la necessità. Per farti un esempio una XT a 1650MHz ha più banda di una Ultra. ;)


Tanto per riprendere il discorso fatto precedentemente, credo anch'io che i benchmark non abbiano tutta quest'importanza in senso assoluto, comunque qualcosa di interessante lo mostrano, se uno analizza nel dettaglio i dati e anche la progressione dei risultati. Continuo a pensare che anche rispetto alla 8800Ultra la progressione dei risultati in SM3 di R600 sia notevole, e non credo che sia attribuibile solo al maggior bandwidth (comunque la Ultra ha più di 100GB/sec già di default). I valori dei test SM3.0 rimangono sempre nettamente più alti di quelli SM2.0.
Questo in ottica giochi DX9 shader intensive e/o DX10 deve pur dire qualcosa.
Ricordo tra l'altro che queste considerazioni le avevo già fatte (ed ero stato uno dei primi a sollevare dubbi su quelle schede, a prescindere dal bus) quando vedevo i risultati così così (sempre al test SM3) delle 8600, nonostante poi come punteggio totale avessero punteggi elevati.

Riporto (da un altro forum) quello che Kinc ha detto a proposito delle dichiarazioni sibilline di Sampsa.

Originally Posted by KTE
I read Sampsa saying the HD2900XT 512MB GDDR3 is only a competitor to a 8800GTS, not able to compete with the 8800GTX or Ultra.

He also has a card. That throws me off, waaay more than I'd like to be.

Originally Posted by Kinc
Yes in DX9 games in gamin resolutios with AA that is. There is a new driver coming today lets see what that does.

Synthetic benchmarks doesnt always apply to real world gaming


Here is something I just found that maybe can make you feal slightly better

http://www.nordichardware.com/news-pics/47.jpg

wiltord
09-05-2007, 08:28
Credo questo possa cominciare ad essere preso come vero e quindi confermerebbe che nei prossimi mesi una presunta XTX non verra' affatto presentata.

e a quel punto attendere l'autunno diverrebbe un "rischio" maggiore..

halduemilauno
09-05-2007, 08:59
a me andrebbe bene se andasse massimo un 10-15% in meno della 8800GTX ma non può essere veloce o poco più veloce della 8800GTS che è parechcio castrata rispetto alla 8800GTX

dall'almeno il 50% in + ad al massimo al 10-15% in -. accidenti. ti ripeto quello che ti dissi allora. aspetta.
;)

Athlon 64 3000+
09-05-2007, 09:04
dall'almeno il 50% in + ad al massimo al 10-15% in -. accidenti. ti ripeto quello che ti dissi allora. aspetta.
;)

grazie per l'incoraggiamento,cerco comunque sempre di parlare al condizionale.
Mancano ancora 5 giorni.

wiltord
09-05-2007, 09:07
R600XT overclocks to 840 MHz

Stable 11,258 3Dmark06

The Radeon HD 2900XT can overclock. It is damn hot but there is still some space to push the card even further. This built by ATI (aren't there all) card could be overclocked by some 100 MHz over the original clock and this resulted with quite a performance boost.

Yesterday we told you here how the card performs at its default clock. The card at its default 745 MHz and 1656 MHz memory scores 10,650.

The overclocked one will gain some 600 points and the card was stable. It didn’t want to go any higher than 840 MHz, but maybe some other cards will. Stable at 11260 points doesn't looks bad at all and we are sure that you would get some performance boost in games.

With this overclock the card becomes more competitive and every 3Dmark06 score increases. Here is the score.

http://www.fudzilla.com/images/stories/2007/May/graphics/3dmark06-ati-r600-oc.gif

fonte Fudzilla

askani
09-05-2007, 09:11
Ho visto in giro che qualcuno postava anche immagini prese con r600 per quanto riguarda hd.
come siamo messi sul lato accelerazione video?
dai rumors sembra essere eccezionale......
qualcuno ha qualche info in più?

Michele81
09-05-2007, 10:34
Come vedete la presenza di 512MB di ram? Secondo voi è un quantitativo "giusto" per questa scheda (più che altro con lo sguardo rivolto ai giochi futuri di fine 2007/inizio 2008)?
Chiedo questo x' purtroppo non ho idea di quanto possa essere l'occupazione della ram video nei titoli odierni (ne tantomeno di quelli futuri)!:rolleyes:

Portocala
09-05-2007, 10:41
Come vedete la presenza di 512MB di ram? Secondo voi è un quantitativo "giusto" per questa scheda (più che altro con lo sguardo rivolto ai giochi futuri di fine 2007/inizio 2008)?
Chiedo questo x' purtroppo non ho idea di quanto possa essere l'occupazione della ram video nei titoli odierni (ne tantomeno di quelli futuri)!:rolleyes:

se non sbaglio per le 1950 Pro, 256 erano sufficienti.

Suppongo che i 512 di adesso siano sufficienti.

Il problema poi viene da CPU-Mobo-Ram

A.L.M.
09-05-2007, 10:47
Come vedete la presenza di 512MB di ram? Secondo voi è un quantitativo "giusto" per questa scheda (più che altro con lo sguardo rivolto ai giochi futuri di fine 2007/inizio 2008)?
Chiedo questo x' purtroppo non ho idea di quanto possa essere l'occupazione della ram video nei titoli odierni (ne tantomeno di quelli futuri)!:rolleyes:

Secondo me quello è l'ultimo dei problemi potenziali di R600. Se uno non ha particolari esigenze (leggi gioco ad oltre 1600x1200) penso che per un paio d'anni bastino: dopo comunque qualunque scheda odierna arrancherebbe, a prescindere dalla memoria.
Quello che potrebbe castrare R600 rispetto alla concorrenza sono TMU (più precisamente le filtering units) e ROPs, come già accadde per R580; dato che non credo che l'architettura degli shaders penalizzerà più di tanto R600 rispetto a G80 nei giochi DX9 meno shader intensive. ;)

Tenebra
09-05-2007, 10:49
se non sbaglio per le 1950 Pro, 256 erano sufficienti.

Suppongo che i 512 di adesso siano sufficienti.


512 mi pare adeguato anche per una scheda video di fascia alta, visto che al momento non è la quantità di ram che fa la differenza (a meno di non andare su risoluzioni veramente disumane, tipo cinema display Apple da 30 pollici).
Più che altro, sto riflettendo sull'opportunità di prendere la 2600XT in versione da 256 o 512... per giocare, al massimo, a 1600x1200... nelle generazioni precedenti spesso la differenza era irrisoria, anche perchè per rientrare nei costi ti beccavi ram più lenta con la versione da 512.
Ma stavolta, con l'architettura diversa, e con le voci di una versione di 2600XT con gddr4 (che avrà un senso, no?) il dubbio si pone...

Simon82
09-05-2007, 10:52
Imho 512 in vista delle Directx10 (intendo i primi titoli) dovrebbe essere ottimale per contenere i costi e utilizzare magari GDDR4 e memorie performanti senza svenarsi.
Non mi stupirei che nella versione OEM da 1Gb se esiste davvero, verranno utilizzate le GDDR3 per contenere anche qui i costi e si spiegherebbe la differenza di prestazioni in negativo.

ATi7500
09-05-2007, 10:56
Imho 512 in vista delle Directx10 (intendo i primi titoli) dovrebbe essere ottimale per contenere i costi e utilizzare magari GDDR4 e memorie performanti senza svenarsi.
Non mi stupirei che nella versione OEM da 1Gb se esiste davvero, verranno utilizzate le GDDR3 per contenere anche qui i costi e si spiegherebbe la differenza di prestazioni in negativo.

beh da qualche indiscrezione si e' capito che il controller memoria di R600 ha qualche problemino di prestazioni se abbinato a memorie GDDR4, per questo IMHO ATi ha deciso di stare sulle 3.
Anche Fudzilla mi pare avesse affermato che la 2600XT con GDDR4 andasse leggermente meno della medesima versione con GDDR3.

bYeZ!

Tenebra
09-05-2007, 10:58
Imho 512 in vista delle Directx10 (intendo i primi titoli) dovrebbe essere ottimale per contenere i costi e utilizzare magari GDDR4 e memorie performanti senza svenarsi.
Non mi stupirei che nella versione OEM da 1Gb se esiste davvero, verranno utilizzate le GDDR3 per contenere anche qui i costi e si spiegherebbe la differenza di prestazioni in negativo.

Razionalmente parlando, sono d'accordo, ma se andiamo a fidarci di uno degli ultimi rumors di Fudzilla :rolleyes: (ok, facciamo finta di farlo) scopriamo che la versione di 2600XT con GDDR4 avrà prestazioni leggermente inferiori a quella della versione GDDR3. Farebbe anche il paio con altri rumors (e che palle però, tutti rumors :muro: ) che parlano di scarsa resa delle GDDR4 con l'architettura R600, ed a quel punto la differenza di prestazioni in negativo non sarebbe più spiegata, visto che secondo queste voci le GDDR3 vanno meglio delle GDDR4 con R600 e derivati...

A questo punto, vada per i 512, vedremo dalle recensioni quale versione - e se saranno possibili margini di miglioramento via driver per le versioni GDDR4, che altrimenti sarebbero totalmente inutili, ed il solo presentarle mi sembrerebbe assurdo...

Edit: ok, è appurato che scrivo lentamente, è la seconda volta che dico le stesse cose del commento precedente :D

DjLode
09-05-2007, 11:01
beh da qualche indiscrezione si e' capito che il controller memoria di R600 ha qualche problemino di prestazioni se abbinato a memorie GDDR4, per questo IMHO ATi ha deciso di stare sulle 3.
Anche Fudzilla mi pare avesse affermato che la 2600XT con GDDR4 andasse leggermente meno della medesima versione con GDDR3.

bYeZ!

Bhè può essere anche un semplice problema di latenza di memoria...

Tenebra
09-05-2007, 11:07
Bhè può essere anche un semplice problema di latenza di memoria...

Ok, ma in questo caso sarebbe irrisolvibile via driver, e verrebbe meno ogni motivo per presentare versioni delle schede con GDDR4 (visto che le GDDR3 vannno di più e costano sensibilmente meno). A che pro dunque? Solo marketing? O ci sono altri motivi per il calo di prestazioni?

ATi7500
09-05-2007, 11:09
Ok, ma in questo caso sarebbe irrisolvibile via driver, e verrebbe meno ogni motivo per presentare versioni delle schede con GDDR4 (visto che le GDDR3 vannno di più e costano sensibilmente meno). A che pro dunque? Solo marketing? O ci sono altri motivi per il calo di prestazioni?

infatti, se fosse un mero problema di latenze (intrinseco quindi al chip di memoria DDR4) ATi non l'avrebbe mai scelte a favore delle DDR3.

bYeZ!

johnson
09-05-2007, 11:12
Ok, ma in questo caso sarebbe irrisolvibile via driver, e verrebbe meno ogni motivo per presentare versioni delle schede con GDDR4 (visto che le GDDR3 vannno di più e costano sensibilmente meno). A che pro dunque? Solo marketing? O ci sono altri motivi per il calo di prestazioni?

Non penso che un problema di latenza possa essere risolto via driver... se fosse realmente così, bisognerà aspettare delle GDDR4 più performanti in termini di latenza.
Forse il ritardo di xtx è dovuto proprio all'attesa di memorie con cas più basse e non a conflitti con le memorie stesse.

EDIT: avevo letto "risolvibile via driver", concordo con te quindi

Simon82
09-05-2007, 11:48
Bhè può essere anche un semplice problema di latenza di memoria...

Potrebbe essere una scelta commerciale in quest'ottica per risparmiare. ;)

Portocala
09-05-2007, 11:53
Potrebbe essere una scelta commerciale in quest'ottica per risparmiare. ;)
o per proporre poi una versione superiore :D

Alexkidd85
09-05-2007, 11:55
Comunque per quanto riguarda l'overclock,100 mhz sul core non sono da "unreal"...prendo l'esempio della mia VGA o della storica x800 Gto2...
Mi aspetto molto di più,se lasciano intuire un'overclock a bomba....mi aspetto diciamo...quei famosi 1000 (di garibaldi :D) ;)

TecnoWorld8
09-05-2007, 11:57
la mia in firma è salita di quasi 200mhz...

Mister Tarpone
09-05-2007, 12:03
Come vedete la presenza di 512MB di ram? Secondo voi è un quantitativo "giusto" per questa scheda (più che altro con lo sguardo rivolto ai giochi futuri di fine 2007/inizio 2008)?
Chiedo questo x' purtroppo non ho idea di quanto possa essere l'occupazione della ram video nei titoli odierni (ne tantomeno di quelli futuri)!:rolleyes:

assolutamente sufficenti per giocarci anche a risoluzioni elevate. poi con quella architettura li.... (bus enorme, shader efficentissimi etc.. :fagiano: )
cmq imho eh............................ :)

Mister Tarpone
09-05-2007, 12:05
beh da qualche indiscrezione si e' capito che il controller memoria di R600 ha qualche problemino di prestazioni se abbinato a memorie GDDR4, per questo IMHO ATi ha deciso di stare sulle 3.
Anche Fudzilla mi pare avesse affermato che la 2600XT con GDDR4 andasse leggermente meno della medesima versione con GDDR3.

bYeZ!

che sola.... ma come mai sti problemi con le ddr4??

Mister Tarpone
09-05-2007, 12:12
la mia in firma è salita di quasi 200mhz...

ottimo :oink: la tua scheda si che era un vero affare...
la prima gto mi garbava poco invece.....

DjLode
09-05-2007, 12:14
Potrebbe essere una scelta commerciale in quest'ottica per risparmiare. ;)

Certamente. Ma già con la 1950 le Gddr4 non fornivano nessun aumento di prestazioni.

Mister Tarpone
09-05-2007, 12:18
Certamente. Ma già con la 1950 le Gddr4 non fornivano nessun aumento di prestazioni.

hai ragione...2fps in più faceva.... ma allora a cosa servono ste ddr4??? :confused:
a niente??? :confused:

Simon82
09-05-2007, 12:20
Certamente. Ma già con la 1950 le Gddr4 non fornivano nessun aumento di prestazioni.

Vero, e' possibile che attualmente lo sviluppo di queste memorie sia ancora acerbo al punto da non aver distaccato le "vecchie" ancor prestanti GDDR3.

Un po' come succedeva per le DDRII su motherboard.

Simon82
09-05-2007, 12:21
hai ragione...2fps in più faceva.... ma allora a cosa servono ste ddr4??? :confused:
a niente??? :confused:

Hanno vantaggi in termini di consumi di corrente e ovviamente conseguente risparmio energetico sia sorgente che dissipato termicamente.
E in piu' fanno "moda" e "progresso", saranno la base dei futuri investimenti di Samsung,Hynix ecc ecc..

wiltord
09-05-2007, 12:22
e dovrebbero raggiungere frequenze maggiori soprattutto..

Simon82
09-05-2007, 12:26
e dovrebbero raggiungere frequenze maggiori soprattutto..

Certamente, in futuro. ;)

Simon82
09-05-2007, 12:33
:eek:

http://ati.amd.com/online/getall3/

http://ati.amd.com/online/getall3/images/header.jpg

Roman91
09-05-2007, 12:38
:eek:

http://ati.amd.com/online/getall3/

http://ati.amd.com/online/getall3/images/header.jpg

:confused: :mbe:

askani
09-05-2007, 12:40
tra un po venderanno anche gli ali e via un bel combo amd e ci si toglie la paura k10 r600 rs790:D

Mister Tarpone
09-05-2007, 12:44
Hanno vantaggi in termini di consumi di corrente e ovviamente conseguente risparmio energetico sia sorgente che dissipato termicamente.
E in piu' fanno "moda" e "progresso", saranno la base dei futuri investimenti di Samsung,Hynix ecc ecc..

ho capito ;)

Pr|ckly
09-05-2007, 12:55
:eek:

http://ati.amd.com/online/getall3/

http://ati.amd.com/online/getall3/images/header.jpg

Imho è agghiacciante.
Rischiamo seriamente di trovarci con vga castrate sotto certe mobo o certi processori.

safendi
09-05-2007, 13:00
:eek:

http://ati.amd.com/online/getall3/

http://ati.amd.com/online/getall3/images/header.jpg

questo stanga le gambe di quello ke dicevano "ke bello ati si è fusa con amd". era abbastanza prevedibile

Roman91
09-05-2007, 13:18
ma l'uscita di questa skeda è prevista il 14??
R630 XT $199.00

-5

Mister Tarpone
09-05-2007, 13:20
ma l'uscita di questa skeda è prevista il 14??
R630 XT $199.00

-5

mi sembra per i primi di giugno....

askani
09-05-2007, 13:26
secondo me invece andremo su due piattaforme standard amd+ati nvidia+intel, in questo modo ( e purtroppo andra cosi) avranno a disposizione due piattaforme per la programmazione con poche disimilitudini tra le stesse (es amd k10 + r600 oppure amd k8 + r650) e si lavorare più come con le console, risultato più ottimizzazione meno costi, e miglior (si spera) resa ad esempio nei giochi ciuzz

DjLode
09-05-2007, 13:33
questo stanga le gambe di quello ke dicevano "ke bello ati si è fusa con amd". era abbastanza prevedibile

Io non capisco cosa c'è di strano...
Amd fa gpu, processori e chipset. Get all 3. Niente di più di quello che succedeva prima. Non capisco i commenti generati da questa scritta, francamente :)

Portocala
09-05-2007, 13:48
Imho è agghiacciante.
Rischiamo seriamente di trovarci con vga castrate sotto certe mobo o certi processori.

hai mai visto una vga potente integrata??

Fasciarsi la testa prima di farsi male ...

Portocala
09-05-2007, 13:49
ma l'uscita di questa skeda è prevista il 14??
R630 XT $199.00

-5

per chi lo sa, ma Corsini ha anche queste in test?

o il 14 sapremmo solo delle 2900?

Alexkidd85
09-05-2007, 14:03
Io non capisco cosa c'è di strano...
Amd fa gpu, processori e chipset. Get all 3. Niente di più di quello che succedeva prima. Non capisco i commenti generati da questa scritta, francamente :)

Quoto....se vuoi comprare il "pacchetto",lo compri! Sennò continui a comprare separatamente...
O sbaglio!?

gianni1879
09-05-2007, 14:15
Quoto....se vuoi comprare il "pacchetto",lo compri! Sennò continui a comprare separatamente...
O sbaglio!?

se nel pacchetto c'è k10 potrei pensarci un pò :D

belin
09-05-2007, 14:29
http://i12.tinypic.com/5yhbww9.jpg


:)

wiltord
09-05-2007, 14:30
prime prove di CF? :)

A.L.M.
09-05-2007, 14:32
Altra mezza retromarcia? :fiufiu:

Practical example

The Radeon HD 2900 XT will overclock to 840 MHz on the air and if you havent seen that story you can see it here. The 840 MHz core on the Radeon HD 2900 XT card is possible with the reference cooler.

Even if you don't have the 2x4 pin necessary for overclocking you will be able to overclock. The plain two 2x3 pin power connectors will do the job but the Catalyst control center won't recognise that the card has the Overdrive capability.

All you really need is the GPU Overclocking tool that we mentioned and linked here and you can overclock even with two 2x3 PCIe power connectors. So you won't be needing a new PSU.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=906&Itemid=1


Qui invece si sono accorti che stavano diventando troppo buoni... :rolleyes:

The reference sucks

At least a few partners confirmed that they will be introducing the overclocked versions of the R600XT card. These cards will come some two weeks after original introduction and most of them will work on significantly higher clocks.

The reference card works at 745 MHz core and 1656 MHz memory. There is still no confirmation if any of these cards will use the water cooler but we would not be surprised.

With a reference cooler the card works stable at 840 MHz as we proved here and with a better cooler such a few partners have in their labs you should be able to do even more. With water we think even above 900 MHz should be possible.

We will try to get some clocks but at this point we can confirm that the overclocked HD 2900 XT cards are on its way.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=905&Itemid=1


La XTX?!?


We have got some information form a reliable source that ATI will be launching the Radeon HD 2900XTX in the end anyhow but nobody is entirely clear on the exact details.


It will most likely not be out until late July or early August, but it should be on display at Computex by at least a couple of ATI’s partners from what our Taiwan spies are telling us. This is the consumer version of the XTX and will look pretty much identical to the HD 2900XT except with a different sticker and more and faster GDDR-4 RAM under the cooler, i.e. this is not the 12.4in full length cards that will be available from OEM’s although both PCB length versions are floating around. The model name hasn’t been set as yet and it might be called XT GDDR4 or XTX, but we’ll stick with XTX for now. ATI partners have the option of ordering either the GDDR-3 XT or GDDR-4 version right now.


It will feature 1GB of GDDR memory and this means a higher memory clock, up from 1650MHz DDR for the HD 2900XT to 2020MHz DDR. The core will also be boosted, but only a laughable 10MHz from 740 to 750MHz. It seems like there will be as much point in buying the Radeon HD 2900XTX as it is to buy a GeForce 8800 Ultra. Maybe the era of the super high-end cards is finally over and we will all get decent performance from an affordable graphics card, but then again, miracles doesn't happen that easily.

ATI’s 1GB GDDR-4 card will likely be priced around the same as Nvidia’s GeForce 8800GTX 768MB at around $550 USD and you will probably be able to buy it in late July or sometime in August.

http://www.tweaktown.com/news/7469/radeon_hd_2900xtx_to_appear_in_late_july/index.html

Nathz
09-05-2007, 14:41
mi iscrivo anche se in ritardo, cacchio 164 pagine da leggere... :muro:

The_SaN
09-05-2007, 14:44
Imho è agghiacciante.
Rischiamo seriamente di trovarci con vga castrate sotto certe mobo o certi processori.

Io invece mi aspetto sconti se compri tutti e 3 i prodotti :sbav: :oink:

A.L.M.
09-05-2007, 14:47
Il voucher di Valve....

If you did not know, AMD and Valve are teaming up once again to bundle a Steam voucher in their upcoming range of HD 2900XT graphics cards. Here is some proof...

http://images.tweaktown.com/imagebank/news_ativalveblackbox2900_01.jpg (http://www.tweaktown.com/popImg.php?img=news_ativalveblackbox2900_01l.jpg)

The voucher will cost AIB partners roughly $6 - 7 USD each and will be bundled with all XT cards but it is unsure at this stage if the voucher will be bundled with lower end graphics cards.

If you have Steam installed, just enter the code when the games are ready and you will be able to download and play Half-Life 2: Episode 2, Team Fortress 2 and Portal. It will be a shame if users will need to wait over a year to play the games though but the games could not be too far away as BETA versions of each are already floating around the traps.

Per chi invocava il moneybench, ho scoperto che Hexus ce l'ha. Leggerò la loro recensione con particolare attenzione, allora. ;)
Un esempio... (http://www.hexus.net/content/item.php?item=8593&page=8)

FatherBoard
09-05-2007, 14:53
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1

askani
09-05-2007, 14:57
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1

no manca qualcosa...... non mi tornano i conti

wiltord
09-05-2007, 14:58
bah...

jp77
09-05-2007, 15:01
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1

spero proprio di no visto che sta sotto alla GTS nel 99% dei casi....

Skullcrusher
09-05-2007, 15:04
Molto, ma molto strana quella recensione....:mbe:

ale0bello0pr
09-05-2007, 15:04
fake paura....hanno pure utilizzato photoshop sulla scheda....c'è scritto sopra AMD? eh??? :mbe:
http://it-review.net/images/stories/stream.jpg x di piu è una X1900 XT photoshoppata... :sbonk:

mi mancava questo sito in quel di Fudzilla & comp..cosa ho trovato qui..

R600 is pretty fascinating technology-wise, a bit more advanced then we initially assumed. The XT version that should be in e-tail and retail very soon will make a "road" for the XTX card that's supposed to come later when the 65nm process is good enough, as well. The cards look impressive, they're very power-hungry, the cooler isn't so monstruously loud as we expected, internal CrossFire connectors are there as well as the new 8-pin PCI-Express power connector so - quite the party ahead of us. Expect more news very soon. Like - next week, full R600 reviews and, of course, some CrossFire testing, as well. We wouldn't want to leave you in the dark...

Lo stesso effetto che mi ha fatto l'O Phone di Microsoft...:rotfl:

zorco
09-05-2007, 15:05
Recensione affidabile?

http://it-review.net/index.php?option=com_content&task=view&id=1314&Itemid=1
speriamo di nò..

jp77
09-05-2007, 15:09
fake paura....hanno pure utilizzato photoshop sulla scheda....c'è scritto sopra AMD? eh??? :mbe:
] x di piu è una X1900 XT photoshoppata... :sbonk:

ma che recensione ti sei letto? quella foto io non la vedo :rolleyes:

A.L.M.
09-05-2007, 15:10
Mancano drivers usati, clocks delle schede e impostazioni precise dei diversi giochi. :mbe:

I risultati di DailyTech (sui quali già nutro qualche dubbio) sono già al massimo delle impostazioni possibili e sono in certi casi quasi il doppio di quelli di IT-Review...

ale0bello0pr
09-05-2007, 15:10
ma che recensione ti sei letto? quella foto io non la vedo :rolleyes:

non è colpa mia se il tuo pc non visualizza le foto

wiltord
09-05-2007, 15:13
ale0bello0pr sistema la firma, massimo 3 righe a 1024 di risoluzione. grazie.

jp77
09-05-2007, 15:13
non è colpa mia se il tuo pc non visualizza le foto

beh non è colpa mia se tu usi il link errato ....e ti leggi la review Friday, 04 May 2007 e non quella del 09 May 2007

ale0bello0pr
09-05-2007, 15:14
ale0bello0pr sistema la firma, massimo 3 righe a 1024 di risoluzione. grazie.

no problem ;)

Nos89
09-05-2007, 15:14
beh non è colpa mia se tu usi il link errato ....e ti leggi la review Friday, 04 May 2007 e non quella del 09 May 2007

bhe quoto. quella foto non esiste sulla nuova recensione:)

ale0bello0pr
09-05-2007, 15:16
bhe quoto. quella foto non esiste sulla nuova recensione:)

infatti è sulla recensione precedente...era per far capire che sito fake sia:D