Entra

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19 20 21 22 23 24 25 26 27 28 29 30 31

halduemilauno
28-04-2007, 08:37
http://bp2.blogger.com/_BabjUDZIqPw/RjLz3GGObFI/AAAAAAAAACU/e3GewiH5ayI/s1600/001.jpg



http://bp1.blogger.com/_BabjUDZIqPw/RjL0F2GObGI/AAAAAAAAACc/2kJL3vJyWGs/s1600/002.jpg


http://bp2.blogger.com/_BabjUDZIqPw/RjL0VGGObHI/AAAAAAAAACk/43mUeMXDEdg/s1600/003.jpg


http://bp2.blogger.com/_BabjUDZIqPw/RjL0iGGObII/AAAAAAAAACs/omHwk7C2K8c/s1600/004.jpg
;)

Poliphilo
28-04-2007, 08:47
Hal non si vedono le immagini.

halduemilauno
28-04-2007, 08:49
Hal non si vedono le immagini.

io le vedo. posto il link diretto.
http://r800.blogspot.com/

Kharonte85
28-04-2007, 09:00
io le vedo. posto il link diretto.

Radeon HD 2900XT Offical Tests Result

Ocfantasy brings the AMD ATI offical test slide of Radeon HD 2900XT and Crossfire. Please pay attention to the dx10 test of Call Of Jauze with a dx10 patch.

http://r800.blogspot.com/


Interessantissimo...le prestazioni in CF sono stupefacenti...

Le prestazioni negli altri giochi confermerebbero quello che si è gia' visto...in alcuni casi è a pari della GTS in altri la supera...

Il test su call of juarez se lo potevano risparmiare dato che è evidente che la 8800gts (probabilmente per colpa dei driver) non è compatibile...

halduemilauno
28-04-2007, 09:03
Interessantissimo...le prestazioni in CF sono stupefacenti...

Le prestazioni negli altri giochi confermerebbero quello che si è gia' visto...in alcuni casi è a pari della GTS in altri la supera...

Il test su call of juarez se lo potevano risparmiare dato che è evidente che la 8800gts (probabilmente per colpa dei driver) non è compatibile...

esatto. peccato per la non presenza della 8800gtx. tu vedi le immagini postate?
;)

appleroof
28-04-2007, 09:03
Qualcuno mi spiegherebbe questo?

http://i15.tinypic.com/2mfghte.jpg

Kharonte85
28-04-2007, 09:04
Qualcuno mi spiegherebbe questo?
é come se Nvidia testasse una ipotetica x2900xt su lost planet in DX10 (che sta praticamente sviluppandoselo da sola :sofico: ) coi driver che si trovano in giro...:D

A.L.M.
28-04-2007, 09:05
Però i dati che hai postato riguardano le capacità teorico di calcolo matematico degli shader, ma comunque rimarrebbe il fatto che ogni shader di G80 riesce a calcolare 1 solo pixel per ciclo di clock, così come quelli di R600, o sto sbagliando?
Quindi se andassimo a calcolare il numero di shader operations, i valori si invertirebbero...
8800GTX: 128x1350MHz= 172,800
HD2900XT: 320x740MHz= 236,800
HD2900XTX: 320x800MHz= 256,000

(Calcolo suggerito dal sito gpureview.com, anche se lì lo legano ancora solo al clock del core, mentre G80 ha un clock degli shaders diverso)

Scusate se mi quoto, ma un'ulteriore conferma di quanto ipotizzavo credo venga anche da questo paragrafo tratto dall'analisi di G80 fatta da Beyond3D:

http://www.beyond3d.com/content/reviews/1/11

Rys and Uttar In The Case Of The Missing MUL

NVIDIA's documentation for G80 states that each SP is able to dual-issue a scalar MADD and MUL instruction per cycle, and retire the results from each once per cycle, for the completing instruction coming out of the end. The thing is, we couldn't find the MUL, and we know another Belgian graphics analyst that's having the same problem. No matter the dependant instruction window in the shader, the peak -- and publically quoted by NVIDIA at Editor's Day -- MUL issue rate never appears during general shading.

We can push almost every other instruction through the hardware at close to peak rates, with minor bubbles or inefficiencies here and there, but dual issuing that MUL is proving difficult. It turns out that the MUL isn't part of the SP ALU, rather it's serial to the interpolator/SF hardware and comes after it when executing, leaving it (currently) for attribute interpolation and perspective correction. Since RCP was a free op on G7x, you got 1/w for nothing on that architecture for helping setup texture coordinates while shading. It's not free any more, so it's calculated at the beginning of every shader on G80 and stored in a register instead. It's not outwith the bounds of possibility that the MUL will be exposed for general shading cases in future driver revisions, depending on instruction mix and particular shaders.

Da quanto mi pare di capire all'inizio i driver non sfruttavano praticamente per nulla l'istruzione MUL aggiuntiva nello shading comune, e credo che comunque gli autori dubitino che quell'istruzione sarà mai sfruttata al 100% nel general shading. Questo articolo risale a novembre 2006.

Dopo qualche mese, a fine marzo 2007, Beyond3D fa una performance analysis e cerca di approfondire il discorso MUL:

http://www.beyond3d.com/content/reviews/7/17

In the original performance piece we mentioned that the dual-issue MUL instruction issue capability that NVIDIA presented as being part of the shader processor makeup of G80 wasn't present. Rather we concluded that the 2nd 'missing' MUL was actually part of the special function and interpolation ALU, serial to SF/interpolation and thus the general shading ALUs in each cluster.

In short, during general shading on G80 in the beginning, you couldn't push more than 1 MUL per clock per SP through the hardware. However with recent driver builds and a dependant MUL instruction stream, it's possible to see about 1.15x MUL performance per expected SP (tested with HLSL only), indicating that the driver is opening up the use of the MUL unit to general shading, when interpolated attributes aren't needed or special function calculations need not be performed. We test using a full-screen quad (two triangles aligned to screen space) and just run our simple pixel shader code across those pixels.

That 1.15x happens with a short-ish shader, and falls off at very high resolutions and with long shader lengths, indicating bottlenecks elsewhere in the architecture (4MP is a lot of pixels to shade, even with a simple test) or resource allocation issues, or a choke condition somewhere in the hardware or driver.

Concluding, and all things considered, it's safe to assume that you won't encounter huge performance cliffs in general shading. It's not hard to run around 160 scalar Gflops in general shading with common instructions on 8800 GTX, and that doesn't count special function execution, interpolation horsepower, filtering flops or other processing that'd count towards G80's final total in 8800 GTX form.

Of course that depends on your shaders and how you sample, as it does with all architectures, but the basic performance is there. In terms of special function shading, performance is capped at a quarter of the general shading rate in terms of single precision float calculations, as mentioned in the architecture analysis back in November.

Measured performance with the 101.41 driver under Vista x64 with GeForce 8800 GTX is as follows, for some common instuctions (all performed on singles of course, since the shader core is natively FP32). Remember the 2nd MUL ALU is part of SFU, hence the > 1x ratio versus what's available for general shading in the SP:

* MUL: 199Gflops (~1.15x)
* DP4: 136Gflops (~0.78x)
* DP3: 165Gflops (~0.95x)
* ADD: 167Gflops (~0.97x)
* LRP: 161Gflops (~0.93x)
* SIN: 41Gflops (~0.95x)

Ora ammettendo anche che i drivers più nuovi aumentino l'efficienza MUL di G80, non credo che quei valori possano aumentare di moltissimo...
Quindi comunque dovrebbe essere MUL: 199Gflops vs MUL: 236.8Gflops della HD2900 XT... o sto sbagliando completamente il ragionamento? :confused: :fagiano:
Mi piacerebbe conoscere il parere dei più esperti nel campo... :help:

appleroof
28-04-2007, 09:07
é come se Nvidia testasse una ipotetica x2900xt su lost planet in DX10 (che sta praticamente sviluppandoselo da sola :sofico: ) coi driver che si trovano in giro...:D

Si ho capito (sono test tratti dalle slide di Tunisi, quindi fatti in casa.....) però quello che mi sfugge è proprio come interpretarli, cioè sono miglioramenti percentuali delle prestazioni con la patch dx10 o cosa? :stordita:

Kharonte85
28-04-2007, 09:10
Si ho capito (sono test tratti dalle slide di Tunisi, quindi fatti in casa.....) però quello che mi sfugge è proprio come interpretarli, cioè sono miglioramenti percentuali delle prestazioni con la patch dx10 o cosa? :stordita:
Ah :boh: da lì non si capisce...

A.L.M.
28-04-2007, 09:17
Si ho capito (sono test tratti dalle slide di Tunisi, quindi fatti in casa.....) però quello che mi sfugge è proprio come interpretarli, cioè sono miglioramenti percentuali delle prestazioni con la patch dx10 o cosa? :stordita:

Ah :boh: da lì non si capisce...

Quella slide non ha molto senso (anzi, un senso ce l'ha, ma è inutile) perchè pare evidente che il test che hanno fatto non riuscisse a girare correttamente con l'hardware nVidia, ma pare che sia il miglioramento percentuale rispetto alle prestazioni della 8800GTS.

Es. global illumination 52fps vs 1 = prestazioni migliori del 5200%.

leoneazzurro
28-04-2007, 09:32
Però i dati che hai postato riguardano le capacità teorico di calcolo matematico degli shader, ma comunque rimarrebbe il fatto che ogni shader di G80 riesce a calcolare 1 solo pixel per ciclo di clock, così come quelli di R600, o sto sbagliando?
Quindi se andassimo a calcolare il numero di shader operations, i valori si invertirebbero...
8800GTX: 128x1350MHz= 172,800
HD2900XT: 320x740MHz= 236,800
HD2900XTX: 320x800MHz= 256,000

(Calcolo suggerito dal sito gpureview.com, anche se lì lo legano ancora solo al clock del core, mentre G80 ha un clock degli shaders diverso)

Si, è così. Tuttavia in situazioni reali conta di più la potenza di calcolo (e come la si sfrutta) ;) )



Quindi comunque quella cifra si riferirebbe al pixel fill rate?
Ma a questo punto sotto questo aspetto sarebbe enormemente più potente rispetto a G80, che ha un pixel fill rate di 13.8 GP/s, anche avendo meno ROPs... :eek:

Si, ma aspettiamo le rece ufficiali perchè è comunque sicuramente dovuto a caraatteristiche particolari delle 16 ROPS

Foglia Morta
28-04-2007, 09:36
da un altro forum...

R600XT

http://www.chiphell.com/attachments/month_0704/20070428_1c8110ce17d056f3d56a4qNhGWOKitQc.jpg

http://www.chiphell.com/attachments/month_0704/20070428_2b1913d30fceba3a38955wU82mucxbN6.jpg

leoneazzurro
28-04-2007, 09:38
Ora ammettendo anche che i drivers più nuovi aumentino l'efficienza MUL di G80, non credo che quei valori possano aumentare di moltissimo...
Quindi comunque dovrebbe essere MUL: 199Gflops vs MUL: 236.8Gflops della HD2900 XT... o sto sbagliando completamente il ragionamento? :confused: :fagiano:
Mi piacerebbe conoscere il parere dei più esperti nel campo... :help:

Beh, quell'unità non è lì per non fare nulla, giusto? :D
Però potrebbe non essere disponibile sempre, ergo potrebbe avere qualche tipo di dipendenza. Per questo aspettiamo.

gianni1879
28-04-2007, 09:38
Dalle indiscrezioni trapelate, per come potrebbero essere fatte le rops di R600, il nuovo 24x su quest'architettura potrebbe pesare come il 6x sulla vecchia (R520/580). :D
Interessante vero? :sofico:

AA col deferred shading invece, mi chiedi troppo.. :p per quello deve risponderti Yoss o leone. :ciapet:
Io cmq credo che non sarà possibile nemmeno con R600 (come del resto con G80).

bellissimo!!! davvero un 24x peserebbe come un 6x??

anche se cmq ad altre risoluzioni credo sia quasi totalmente inutile

Window Vista
28-04-2007, 09:41
da un altro forum...

R600XT

http://www.chiphell.com/attachments/month_0704/20070428_1c8110ce17d056f3d56a4qNhGWOKitQc.jpg

http://www.chiphell.com/attachments/month_0704/20070428_2b1913d30fceba3a38955wU82mucxbN6.jpg

E' molto: ma con quale versione di r600 xt o xtx?

edit: è r600 xt e quanto farà allora la xtx? e ste famose gddr4 saranno utilizzate o no?

Soulbringer
28-04-2007, 09:43
E' molto: ma con quale versione di r600 xt o xtx?

C'é scritto r600xt..;)

Window Vista
28-04-2007, 09:43
bellissimo!!! davvero un 24x peserebbe come un 6x??

anche se cmq ad altre risoluzioni credo sia quasi totalmente inutile

Impossibile, total più come la metà(12) Nvidia invece quanto fa max?

Window Vista
28-04-2007, 09:44
C'é scritto r600xt..;)

grazie! ;) :D

gianni1879
28-04-2007, 09:44
da un altro forum...

R600XT

http://www.chiphell.com/attachments/month_0704/20070428_1c8110ce17d056f3d56a4qNhGWOKitQc.jpg

http://www.chiphell.com/attachments/month_0704/20070428_2b1913d30fceba3a38955wU82mucxbN6.jpg

non male però... anche se il punteggio della 8800gtx mi sembra bassino, boh

Kharonte85
28-04-2007, 09:45
Quella slide non ha molto senso (anzi, un senso ce l'ha, ma è inutile) perchè pare evidente che il test che hanno fatto non riuscisse a girare correttamente con l'hardware nVidia,
Su questo siamo d'accordo, infatti l'avevo detto anche io:
Il test su call of juarez se lo potevano risparmiare dato che è evidente che la 8800gts (probabilmente per colpa dei driver) non è compatibile...
:)
da un altro forum...

R600XT

Messo cosi' quel punteggio ha poco senso...

Dexther
28-04-2007, 09:47
non male però... anche se il punteggio della 8800gtx mi sembra bassino, boh

nonchè contraddittorio con le slide della pagina precedente dove r600 è indietro sui 3dmark..

A.L.M.
28-04-2007, 09:49
Le prestazioni negli altri giochi confermerebbero quello che si è gia' visto...in alcuni casi è a pari della GTS in altri la supera...

Beh, neanche tanto. In realtà a parte FarCry, dove potrebbe esserci un problema di drivers, visto che di solito le ATi vanno molto bene in quel gioco, la XT supera la GTS ovunque (in alcuni casi pure di parecchio), pure in Doom3 e in Quake4 che vanno molto meglio sulle nVidia. ;)
Vanno più o meno uguale nei benchmark, ma anche quello è da vedere.
Poi ovviamente non si sanno settaggi, sistema di test, drivers, quindi anche questi test lasciano il tempo che trovano... :stordita:

Edit: visto ora anche i punteggi in HDR Gaming, in effetti sono sballati pure questi. In Oblivion i fps sono troppo bassi per entrambe...
Ha ragione GabrySP nel post più in basso...

appleroof
28-04-2007, 09:53
Il 2 maggio dovrebbero esserci test ufficiali?

Athlon 64 3000+
28-04-2007, 09:54
fanno vedere sei dei test dove kla HD 2900XT va come la 8800GTS poi sbuca fuori un punteggio al 3d mark 2005 dove la HD2900XT e addirittura superiore alla
8800GTX persino overclokkata.
Io penso che siano tutti e 2 dai fake visto che ormai non ci si capisce più niente.

GabrySP
28-04-2007, 09:54
Questi test sono al livello di ciarlataneria :D -> http://r800.blogspot.com/

Farcry (research) che fa 40-60 fps con schede del genere è una "boiata pazzesca" poi con una risoluzione relativamente piccola (1600x1200)

HL2 e Doom3 hanno gli stessi frame-rate di Serious Sam 2 :doh:

Che tristezza. :D

Se quello di DT è un fake, almeno è fatto meglio ;) questo è proprio ridicolo.

appleroof
28-04-2007, 09:55
fanno vedere sei dei test dove kla HD 2900XT va come la 8800GTS poi sbuca fuori un punteggio al 3d mark 2005 dove la HD2900XT e addirittura superiore alla
8800GTX persino overclokkata.
Io penso che siano tutti e 2 dai fake visto che ormai non ci si capisce più niente.

I 3dmark non rispecchiano mai le prestazioni con i giochi

Kharonte85
28-04-2007, 09:57
Beh, neanche tanto. In realtà a parte FarCry, dove potrebbe esserci un problema di drivers, visto che di solito le ATi vanno molto bene in quel gioco, la XT supera la GTS ovunque (in alcuni casi pure di parecchio), pure in Doom3 e in Quake4 che vanno molto meglio sulle nVidia. ;)
Vanno più o meno uguale nei benchmark, ma anche quello è da vedere.
Poi ovviamente non si sanno settaggi, sistema di test, drivers, quindi anche questi test lasciano il tempo che trovano... :stordita:
I settaggi ci sono, il sistema no, cmq io mi riferivo alle scheda singole (soprattutto con HDR on)...credo che parlare di vantaggi vecchi tipo HL2 e doom 3 con queste nuove architetture abbia perso senso...

gianni1879
28-04-2007, 09:57
nonchè contraddittorio con le slide della pagina precedente dove r600 è indietro sui 3dmark..

infatti mi sa di cavolata pazzesca ;)

Kharonte85
28-04-2007, 10:00
infatti mi sa di cavolata pazzesca ;)
Si ma quei test al 3d march sono fatti a 1600 con AA...:fagiano:

Kharonte85
28-04-2007, 10:01
Questi test sono al livello di ciarlataneria :D -> http://r800.blogspot.com/

Farcry (research) che fa 40-60 fps con schede del genere è una "boiata pazzesca" poi con una risoluzione relativamente piccola (1600x1200)

HL2 e Doom3 hanno gli stessi frame-rate di Serious Sam 2 :doh:

Che tristezza. :D

Se quello di DT è un fake, almeno è fatto meglio ;) questo è proprio ridicolo.
Be' se sono test ufficiali AMDATI c'è la seria possibilita' che siano piu' taroccati di altri...:D

A.L.M.
28-04-2007, 10:05
I settaggi ci sono, il sistema no, cmq io mi riferivo alle scheda singole (soprattutto con HDR on)...credo che parlare di vantaggi vecchi tipo HL2 e doom 3 con queste nuove architetture abbia perso senso...
Boh, come ho aggiunto sopra mi paiono una caxxata pure questi, in effetti.
Mi erano sfuggiti i test con HDR...
I settaggi dettagliati non ci sono, e attivare o meno le soft shadows, per esempio, nei giochi recenti significa perdere davvero tanti frames al secondo. ;)

A.L.M.
28-04-2007, 10:06
Be' se sono test ufficiali AMDATI c'è la seria possibilita' che siano piu' taroccati di altri...:D

Che siano ufficiali mi pare ancora più risibile...
Che questi prima fanno una presentazione blindata e poi inviano le slides a cani e porci? :D

appleroof
28-04-2007, 10:13
Che siano ufficiali mi pare ancora più risibile...
Che questi prima fanno una presentazione blindata e poi inviano le slides a cani e porci? :D

Non ci sarebbe nulla di strano, ricordi quando si parlava di "fughe controllate/volute"? Capita sempre, sopratutto quando sono favorevoli al prodotto che si sta per lanciare...;)

Poliphilo
28-04-2007, 10:30
esatto. peccato per la non presenza della 8800gtx. tu vedi le immagini postate?
;)

La X2900XT va confrontata con la 8800GTS. La X2900XTX con la GTX ecco perchè non la vedi.

A.L.M.
28-04-2007, 10:30
Non ci sarebbe nulla di strano, ricordi quando si parlava di "fughe controllate/volute"? Capita sempre, sopratutto quando sono favorevoli al prodotto che si sta per lanciare...;)

Secondo me il clima non è più quello, guarda caso sembra che pure nVidia abbia cambiato la sua politica per quanto riguarda la Ultra.

NV has made an important step to stop those leaks you see on some websites. They stop providing prior information about the products to the manufacturers. This created a big problem for manufacturers. If you would have noticed, most of the cards on sale in the market has minimum documentation.

Not only that, for "selected" media, you are given documentation in PDF files and it requires a login/password and IP tracking. Just a couple of weeks ago, we were given pdf files but we can't login!! Some were not even given the PDF files on time.

Fonte: OCWorkbench

Comunque a parte l'OT, ci sono un po' di news...

http://www.fudzilla.com/index.php?option=com_content&task=view&id=723&Itemid=34

Fudzilla conferma (vabbè, lo uso come fonte perchè questo dato mi pare assodato, anche se non era ancora stato riportato da nessuno) che il bus interno di R600 è a 1024 bit.

Poi, e questo mi pare più interessante, un articolo su TechArp. Ancora speculazioni, ma comunque certi rumors stanno diventando sempre più insistenti: secondo loro R600 sarà DX10.1.

http://www.techarp.com/showarticle.aspx?artno=401&pgno=0

Athlon 64 3000+
28-04-2007, 10:38
lo so che il 3d mark non rispecchia le prestazione della cpu ma vedere che fa un punteggio persino superiore ad una 8800GTX overclokkata e poi dopo vedere negli altri bench,ark che va come una 8800GTS mi puzza di fake colossale.

A.L.M.
28-04-2007, 10:38
Ah, e un update di Inquirer (per quanto possa valere :asd: ) riguardo il lancio di R600.
Sembra che ATi abbia confermato il paper launch del 2 Maggio e la disponibilità delle schede per il 14. :)

http://uk.theinquirer.net/?article=39223

ale0bello0pr
28-04-2007, 10:42
Ah, e un update di Inquirer (per quanto possa valere :asd: ) riguardo il lancio di R600.
Sembra che ATi abbia confermato il paper launch del 2 Maggio e la disponibilità delle schede per il 14. :)

http://uk.theinquirer.net/?article=39223

ok allora ci posso mettere la mano sul fuoco... :O

ahia....!!!:ncomment:

A.L.M.
28-04-2007, 10:47
ok allora ci posso mettere la mano sul fuoco... :O

ahia....!!!:ncomment:

Bisogna comunque dire che quando c'era stato il posticipo a Marzo ci avevano azzeccato... :O

ale0bello0pr
28-04-2007, 10:48
Bisogna comunque dire che quando c'era stato il posticipo a Marzo ci avevano azzeccato... :O


si era quell'unico caso sul milione di balle che sparano al mese....
dove leggo the inquirer... leggo fake:read:

Foglia Morta
28-04-2007, 10:52
http://i4.photobucket.com/albums/y117/jonelo/gpun2073.jpg

http://i4.photobucket.com/albums/y117/jonelo/gpun2077.jpg

http://i4.photobucket.com/albums/y117/jonelo/gpun2076.jpg

belin
28-04-2007, 10:53
...scusate, ma io sto continuando a guardare le immagini. Si è sempre detto che il pcb era lo stesso ed invece ora quello retail è più lungo. Che senso avrebbe farlo più lungo se su quello oem c'è già tutto quello che serve in minor spazio? solo per il dissy? a che pro?! non mi convince. Tra l'altro sul pcb retail, nella parte aggiunta, mi sembra che ci sia della circuiteria in più...a che servirebbe? a reggere clock più alti? mmm...
Le ram della XT retail sono Hynix gddr3, facendo lo zoom si riconoscono.

:wtf:

ps. grazie leoneazzurro per la risposta. :)

pps. TheInq quest'anno ha firmato l'NDA. prima volta, incredibile.

webbuffa
28-04-2007, 10:59
:) Secondo voi le recensioni delle schede per quale giorno potrebbero uscire?

A.L.M.
28-04-2007, 11:00
:) Secondo voi le recensioni delle schede per quale giorno potrebbero uscire?

Dipende da quando scadrà l'NDA. O il 2 o il 14 maggio. ;)

belin
28-04-2007, 11:01
http://i4.photobucket.com/albums/y117/jonelo/gpun2073.jpg

http://i4.photobucket.com/albums/y117/jonelo/gpun2077.jpg

http://i4.photobucket.com/albums/y117/jonelo/gpun2076.jpg

...bella è bella! :D (quindi non è PowerColor, ma proprio BBA questa versione con le fiamme)

...pcb retail di cui parlavo, frequenze più alte della slide per il core (757 Mhz), praticamente uguali per le memorie (1656 Mhz), frequenze 2D (500/1000), bastano 2*6pin come alimentazione.

...ciao!

webbuffa
28-04-2007, 11:05
...bella è bella! :D (quindi non è PowerColor, ma proprio BBA questa versione con le fiamme)

...pcb retail di cui parlavo, frequenze più alte della slide per il core (757 Mhz), praticamente uguali per le memorie (1656 Mhz), frequenze 2D (500/1000), bastano 2*6pin come alimentazione.

...ciao!

:) Vero è molto bella... poi le case che le produrranno si sbizzarriranno con le fantasie dei Dissipatori (almeno credo... guardando Nvidia lol)

Per l'alimentazione invece... :| io quella 6 pin la ho sulla sk madre! uscirà un trasformatore da PCI-EX a 6 pin :)?

appleroof
28-04-2007, 11:05
Anche questa ha 2 connessioni per il crossfire come la 8800 per lo sli, non sò se era stato già notato

halduemilauno
28-04-2007, 11:15
La X2900XT va confrontata con la 8800GTS. La X2900XTX con la GTX ecco perchè non la vedi.

sbagliato.

webbuffa
28-04-2007, 11:16
sbagliato.

:eek: Come sbagliato ?

appleroof
28-04-2007, 11:19
Secondo me il clima non è più quello, guarda caso sembra che pure nVidia abbia cambiato la sua politica per quanto riguarda la Ultra.


Mah...proprio a pochi giorni dal lancio di regola ci sono le indiscrezioni più attendibili, cmq sempre rumors ;)

halduemilauno
28-04-2007, 11:24
:eek: Come sbagliato ?

la xt si confronta con la gtx. il meglio con il meglio.
;)

Andrea deluxe
28-04-2007, 11:25
o shit!

Se le prestazioni in cross-fire sono quelle dei test comprero' 2 HD2900xt

PS: esiste una buona mobo x sk 939 che supporta il cross-fire e mi permette di overcloccare x bene il mio procio?

halduemilauno
28-04-2007, 11:26
o shit!

Se le prestazioni in cross-fire sono quelle dei test comprero' 2 HD2900xt

PS: esiste una buona mobo x sk 939 che supporta il cross-fire e mi permette di overcloccare x bene il mio procio?

fai benissimo.
;)

halduemilauno
28-04-2007, 11:29
http://www.fudzilla.com/index.php?option=com_content&task=view&id=728&Itemid=1

That is why it stays behind

Here is the one of the key reasons why R600 marchitecture falls behind the G80 GTX version. While Geforce 8800 GTX or G80GTX has 32 Texture Memory Units (TMUs) Radeon HD 2900 XT has 16 only.


TMUs are responsible for getting the textures in your games and more you have the faster you can handle the texture work.

Still, the Radeon HD 2900 XT at 750 MHz core is about 30 percent faster in raw clock speed from Geforce 8800 GTX at 575 MHz and finishes the texture cycle some 30 percent faster then Nvidia.

In spite of that this is not really a fortunate solution as Nvidia has twice as much texture memory units. The only hope is that ATI has more effective TMUs, but this is one big marchitectural disadvantage over the G80 marchitecture.


;)

GabrySP
28-04-2007, 11:30
o shit!

Se le prestazioni in cross-fire sono quelle dei test comprero' 2 HD2900xt

PS: esiste una buona mobo x sk 939 che supporta il cross-fire e mi permette di overcloccare x bene il mio procio?


I framerate sono moooolto inferiori a quelli che fa una singola X1950 :sofico: , non mi semgra un gran affare :D (Vedi farcry, Doom3 e HL2 :fagiano: )

A.L.M.
28-04-2007, 11:37
http://www.fudzilla.com/index.php?option=com_content&task=view&id=728&Itemid=1

That is why it stays behind

Here is the one of the key reasons why R600 marchitecture falls behind the G80 GTX version. While Geforce 8800 GTX or G80GTX has 32 Texture Memory Units (TMUs) Radeon HD 2900 XT has 16 only.


TMUs are responsible for getting the textures in your games and more you have the faster you can handle the texture work.

Still, the Radeon HD 2900 XT at 750 MHz core is about 30 percent faster in raw clock speed from Geforce 8800 GTX at 575 MHz and finishes the texture cycle some 30 percent faster then Nvidia.

In spite of that this is not really a fortunate solution as Nvidia has twice as much texture memory units. The only hope is that ATI has more effective TMUs, but this is one big marchitectural disadvantage over the G80 marchitecture.


;)

Fin qui c'eravamo già arrivati, se i dati visti finora sono veri.
Aspettiamo però una comparison corretta tra XT e GTX sui giochi più proiettati verso il futuro (quindi no Stalker, ma sì Oblivion, R6Vegas, ecc...), e coi primi giochi simil-DX10 (DX9+patch).

Athlon 64 3000+
28-04-2007, 11:39
vedento le ultime foto della HD 2900XT sembra molto lunga,non vorrei che in realtà sarà lunga quanto una 8800GTX(anche se non credo).

Free Gordon
28-04-2007, 11:41
Veramente anche R580 ha 16TMU....
CIaO


Infatti ho detto che per R600 me ne aspettavo almeno 24 del tipo di R580. :)

Andrea deluxe
28-04-2007, 11:41
I framerate sono moooolto inferiori a quelli che fa una singola X1950 :sofico: , non mi semgra un gran affare :D (Vedi farcry, Doom3 e HL2 :fagiano: )

:confused:

halduemilauno
28-04-2007, 11:43
Fin qui c'eravamo già arrivati, se i dati visti finora sono veri.
Aspettiamo però una comparison corretta tra XT e GTX sui giochi più proiettati verso il futuro (quindi no Stalker, ma sì Oblivion, R6Vegas, ecc...), e coi primi giochi simil-DX10 (DX9+patch).

veramente fin qui ci siamo arrivati io e pochi altri. tu e la massa sei ancora fermo a 512 bit son meglio di 384 e 320 shader son meglio di 128.
certo aspettiamo rece esaustive con xt vs gtx.

belin
28-04-2007, 11:47
vedento le ultime foto della HD 2900XT sembra molto lunga,non vorrei che in realtà sarà lunga quanto una 8800GTX(anche se non credo).

...è l'analisi del pcb che stavo facendo. Comunque sarà lunga 9,5 inchs, più corta della GTX.

Infatti ho detto che per R600 me ne aspettavo almeno 24 del tipo di R580. :)

...da quello che abbiamo letto (post tecnici qui e su altri siti, no Fudzilla che secondo me ci legge e poi con Google traduce arrivando dopo gli altri forum...:D ) saranno 16 TMU ma sicuramente con un efficenza diversa da quelli di R580. Ipotizzo un 1.5x/2x più veloci.

...ciao!

Kharonte85
28-04-2007, 11:55
http://www.fudzilla.com/index.php?option=com_content&task=view&id=728&Itemid=1

That is why it stays behind

Here is the one of the key reasons why R600 marchitecture falls behind the G80 GTX version. While Geforce 8800 GTX or G80GTX has 32 Texture Memory Units (TMUs) Radeon HD 2900 XT has 16 only.


TMUs are responsible for getting the textures in your games and more you have the faster you can handle the texture work.

Still, the Radeon HD 2900 XT at 750 MHz core is about 30 percent faster in raw clock speed from Geforce 8800 GTX at 575 MHz and finishes the texture cycle some 30 percent faster then Nvidia.

In spite of that this is not really a fortunate solution as Nvidia has twice as much texture memory units. The only hope is that ATI has more effective TMUs, but this is one big marchitectural disadvantage over the G80 marchitecture.


;)
Che è quello di cui si parlava prima...

Free Gordon
28-04-2007, 11:56
bellissimo!!! davvero un 24x peserebbe come un 6x??
anche se cmq ad altre risoluzioni credo sia quasi totalmente inutile


Ovviamente sempre parlando a livello di Rops. :D

Quando applichi nella realtà un filtro MSAA, le richieste di banda salgono e sono di intensità differenti da gioco a gioco... per cui è difficile stabilire ora se con 100GB/s di banda siano fattibili questi fantomatici 24x... ;)

Cmq a livello di rops dovrebbe pesare come un 6x (sempre che i 4pixel a clock non siano un caso particolare come in Xenos).

Kharonte85
28-04-2007, 11:57
La X2900XT va confrontata con la 8800GTS. La X2900XTX con la GTX ecco perchè non la vedi.
la xt si confronta con la gtx. il meglio con il meglio.
;)
E gia', dato che la xtx molto probabilmente non esce nemmeno...

halduemilauno
28-04-2007, 11:58
E gia', dato che la xtx molto probabilmente non esce nemmeno...

e se uscisse si confronterebbe con la ultra.
;)

Kharonte85
28-04-2007, 12:01
Non mi ricordo chi aveva postato i due pareri esterni di altri forum, ma in uno di essi mi sembrava che si facesse riferimento alle prestazioni in CF, non è che ha visto gli stessi test che abbiamo visto oggi? :mc:

Free Gordon
28-04-2007, 12:04
pcb retail di cui parlavo, frequenze più alte della slide per il core (757 Mhz), praticamente uguali per le memorie (1656 Mhz), frequenze 2D (500/1000), bastano 2*6pin come alimentazione.


2x6 per cui il tetto massimo teorico sarebbe di 200W?
Quanto porta ogni cavo PCI-ex 6 pin?

757 invece che 740.. :p son sempre 17mhz in più ma sicuramente non molto... :D
A questo punto mi chiedo perchè girino (a quanto pare) schede a 740mhz... :stordita:

GabrySP
28-04-2007, 12:12
:confused:

Ma li hai guardati i test ? :D -> http://bp2.blogger.com/_BabjUDZIqPw/RjLz3GGObFI/AAAAAAAAACU/e3GewiH5ayI/s1600-h/001.jpg

Con le stesse impostazioni in alcuni di quei giochi una X1650 va ben più veloce di una GTS o di R600 (ovviamente sono un fake fatto molto male :doh: )

Sei tu che hai detto che ti vuoi fare un CF di R600 in base a quei dati, vai a vedere qualche rece e scoprirai che una X1900 batte nettamente il presunto CF di R600 :sofico: (farcry poi è una comica :D : 80 fps con un CF)

EDIT : la cosa più curiosa è che la GTS fa circa 40-50 fps in quasi tutti i giochi (HL2 fa gli stessi frame di SS2 :confused: ) IMHO chi si è inventato questi risultati aveva poca fantasia :D

jp77
28-04-2007, 12:16
2x6 per cui il tetto massimo teorico sarebbe di 200W?
Quanto porta ogni cavo PCI-ex 6 pin?



150W * 2 +75W del connettore pci-ex
tetto massimo teorico 375W (ovviamente la scheda consumerà molto meno )

Free Gordon
28-04-2007, 12:18
...da quello che abbiamo letto (post tecnici qui e su altri siti, no Fudzilla che secondo me ci legge e poi con Google traduce arrivando dopo gli altri forum...:D ) saranno 16 TMU ma sicuramente con un efficenza diversa da quelli di R580. Ipotizzo un 1.5x/2x più veloci.


Questa cosa (il fatto che sul versante TMU sarebbe stata meno dotata rispetto a G80) l'aveva lasciata trasparire Yoss in un post di molti mesi fà.. :D ma io speravo che il numero non fosse proprio identico a quello di R520...

Ok, saranno più veloci delle vecchie TMU, sono cloccate più in alto ma sono sempre 16 vs 32...


Però ciò che non comprendo ora è questo:
G80 ha una ventina di mln di transitor in MENO di R600... dove li avrà impiegati tutti questi transistor se i valori per alcuni particolari (TMU e Rops in primis) non sono granchè cambiati dalla passata architettura? :confused:

Ok, R600 ha 2.5 volte gli SP di G80.. ma non sono sicuramente questi a far quadrare il conto e ti spiego perchè (imho):
da R520 a R580 ci sono 32 shader complessi di differenza ma solo 50mln di transistor in più...
Considerando anche i circuiti di controllo e il resto, potremmo approssimare le differenze in più, in mln di transistor a carico dell'archi R600 rispetto a G80 in un 100-150mln massimo (su 700 e passa).
Dove li ha messi i restanti 600mln di transistor? :sofico:
Mistero... :cool:

Free Gordon
28-04-2007, 12:21
e se uscisse si confronterebbe con la ultra.
;)


La XTX uscirà proprio per confrontarsi con la Ultra. ;)

Kharonte85
28-04-2007, 12:22
Ma li hai guardati i test ? :D -> http://bp2.blogger.com/_BabjUDZIqPw/RjLz3GGObFI/AAAAAAAAACU/e3GewiH5ayI/s1600-h/001.jpg

Con le stesse impostazioni in alcuni di quei giochi una X1650 va ben più veloce di una GTS o di R600 (ovviamente sono un fake fatto molto male :doh: )

Sei tu che hai detto che ti vuoi fare un CF di R600 in base a quei dati, vai a vedere qualche rece e scoprirai che una X1900 batte nettamente il presunto CF di R600 :sofico: (farcry poi è una comica :D : 80 fps con un CF)
Trovami un test a 1600 con 8xAA e 16x anisotropico con una x1650xt o x1950pro...voglio proprio vedere se fanno meglio...

halduemilauno
28-04-2007, 12:23
La XTX uscirà proprio per confrontarsi con la Ultra. ;)

quello che dicevo.

belin
28-04-2007, 12:41
Ok, saranno più veloci delle vecchie TMU, sono cloccate più in alto ma sono sempre 16 vs 32...

Però ciò che non comprendo ora è questo:
G80 ha una ventina di mln di transitor in MENO di R600... dove li avrà impiegati tutti questi transistor se i valori per alcuni particolari (TMU e Rops in primis) non sono granchè cambiati dalla passata architettura? :confused:

Ok, R600 ha 2.5 volte gli SP di G80.. ma non sono sicuramente questi a far quadrare il conto e ti spiego perchè (imho):
da R520 a R580 ci sono 32 shader complessi di differenza ma solo 50mln di transistor in più...
Considerando anche i circuiti di controllo e il resto, potremmo approssimare le differenze in più, in mln di transistor a carico dell'archi R600 rispetto a G80 in un 100-150mln massimo (su 700 e passa).
Dove li ha messi i restanti 600mln di transistor?

...non sappiamo com'è R600 quindi non saprei cosa risponderti. :D

Bisognerà vedere come saranno strutturate queste TMU e come reagiranno con il clock della gpu per vedere la loro efficenza (che potrebbe quindi essere uguale o maggiore di 1.5x/2x di quelle di R580)
ATi, già con R580, ha fatto capire che non punta sulle TMU. 3:1 il rapporto in R580, se le slide sono confermate sarebbe un 4:1 in R600.
L'architettura comunque è completamente cambiata, il processo produttivo pure, non si può paragonare R600 a R580. Si può ipotizzare un confronto con G80 ed infatti la differenza di transistor sarà molto piccola (681 M vs 700 M). Considera anche che R500 Xenos conta 337 milioni di transistor. Di questi 232 sono relativi al core della GPU, mentre 105 milioni di transistor sono utilizzati per realizzare i 10 Mb di memoria DRAM embedded. R500 ha architettura a shader unificati. Più precisamente 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading.
E' per questo che dico che, imho, R600 non ha ancora svelato tutto di se...

:)

Andrea deluxe
28-04-2007, 12:49
Ma li hai guardati i test ? :D -> http://bp2.blogger.com/_BabjUDZIqPw/RjLz3GGObFI/AAAAAAAAACU/e3GewiH5ayI/s1600-h/001.jpg

Con le stesse impostazioni in alcuni di quei giochi una X1650 va ben più veloce di una GTS o di R600 (ovviamente sono un fake fatto molto male :doh: )

Sei tu che hai detto che ti vuoi fare un CF di R600 in base a quei dati, vai a vedere qualche rece e scoprirai che una X1900 batte nettamente il presunto CF di R600 :sofico: (farcry poi è una comica :D : 80 fps con un CF)
Pardon

Free Gordon
28-04-2007, 13:14
Considera anche che R500 Xenos conta 337 milioni di transistor. Di questi 232 sono relativi al core della GPU, 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading.


Appunto, a maggior ragione se in Xenos 16 TMU + 48 shader vec4+1 fanno 232mln di transistor.. penso proprio che R600 nasconda qualcosa di ben più "sostanzioso" nel suo cuore di silicio.. :D (dato che sono poi "solamente" 64 shader vec5... :D )
Mentre, ad oggi, i numeri su ROPs e TMU paiono decisamente striminziti..
Il mistero è fitto. :D

fede27
28-04-2007, 13:25
Infatti ho detto che per R600 me ne aspettavo almeno 24 del tipo di R580. :)
Ah ok scusami, avevo capito male ;)

CIaO

parcher
28-04-2007, 13:28
Trovami un test a 1600 con 8xAA e 16x anisotropico con una x1650xt o x1950pro...voglio proprio vedere se fanno meglio...

Io avevo la X1650XT a 1024x768 poteva andare bene per arrangiare ma con i filtri al minimo...
almeno su gli ultimi giochi DX9 usciti....

L'ho abbandonata dopo un mese ...

P.:banned:

Defragg
28-04-2007, 13:36
Trovami un test a 1600 con 8xAA e 16x anisotropico con una x1650xt o x1950pro...voglio proprio vedere se fanno meglio...

ehm...8x di AA con la X1xxx series te lo sogni :stordita:

Defragg
28-04-2007, 13:37
vedento le ultime foto della HD 2900XT sembra molto lunga,non vorrei che in realtà sarà lunga quanto una 8800GTX(anche se non credo).

...è l'analisi del pcb che stavo facendo. Comunque sarà lunga 9,5 inchs, più corta della GTX.

dovrebbe essere lunga come la GTS ;)

Kharonte85
28-04-2007, 14:23
ehm...8x di AA con la X1xxx series te lo sogni :stordita:
Eh gia'...:D

Foglia Morta
28-04-2007, 15:25
http://www.hardspell.com/english/doc/showcont.asp?news_id=479&pageid=580

halduemilauno
28-04-2007, 15:58
http://www.fudzilla.com/index.php?option=com_content&task=view&id=730&Itemid=1

757 MHz core / 1656 MHz memory

At last ATI has the final Radeon HD 2900XT speeds. The card will work at 507 MHz in 2D mode and 757 MHz in 3Dmode. ATI wants to save some power if you don't play your games all the time.

The memory in 3D mode works at 1656 MHz, while if you are just doing the usual 2D stuff the memory will work at 1028 MHz. We are talking about the 512 MB GDDR3 card.

ATI learned that these clocks have much better yield than the previous 800 / 1600 MHz combination. The cards with these clocks will hit retail and etail stores on the 14th of May.


;)

skassa
28-04-2007, 16:20
Qualche giorno fa' ho letto da qualche parte che i geometry shader dell r600 sono 50 volte piu' veloci del g80. Adesso ho trovato questo:

http://r800.blogspot.com/

vedete i test di call of juarez con patch direct x 10.

sara' vero?

gianni1879
28-04-2007, 16:22
http://www.fudzilla.com/index.php?option=com_content&task=view&id=730&Itemid=1

757 MHz core / 1656 MHz memory

At last ATI has the final Radeon HD 2900XT speeds. The card will work at 507 MHz in 2D mode and 757 MHz in 3Dmode. ATI wants to save some power if you don't play your games all the time.

The memory in 3D mode works at 1656 MHz, while if you are just doing the usual 2D stuff the memory will work at 1028 MHz. We are talking about the 512 MB GDDR3 card.

ATI learned that these clocks have much better yield than the previous 800 / 1600 MHz combination. The cards with these clocks will hit retail and etail stores on the 14th of May.


;)
solito switch 2d 3d

A.L.M.
28-04-2007, 16:27
Qualche giorno fa' ho letto da qualche parte che i geometry shader dell r600 sono 50 volte piu' veloci del g80. Adesso ho trovato questo:

http://r800.blogspot.com/

vedete i test di call of juarez con patch direct x 10.

sara' vero?

Quella slide è inutile, e forse anche fasulla, così come tanti test che si stanno vedendo in questi giorni, probabilmente. ;)
Le indiscrezioni sull'architettura di R600 fanno pensare che in DX10 possa andare molto bene, forse anche meglio della concorrenza, ma i dettagli sono ancora fumosi, e le prime patch DX10 ancora lontane (occorrono almeno un mese o due per vederle).
Sui geometry shaders c'è chi dice che saranno 50 volte più prestanti, chi il 50%, chi 5 volte più prestanti di G80.
Ci sono ancora molti dubbi sull'architettura, figuriamoci sulle prestazioni... ;)

Foglia Morta
28-04-2007, 16:36
http://bbs.expreview.com/attachments/month_0704/20070428_deff9681f706dcab9a16HwlraKhteBqZ.jpg

Edit: per confronto

http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif

Foglia Morta
28-04-2007, 16:41
ci vorrebbe un esegeta :D

halduemilauno
28-04-2007, 16:49
edit. gia postata.

DVD2005
28-04-2007, 16:51
CUT

Edit: per confronto

CUT



chi è che mi spiega ? :mc:

Roman91
28-04-2007, 16:53
si sa niente di quanto costera la hd 2600??????e se monta la gddr3 oppure gddr4???

Kharonte85
28-04-2007, 16:55
ci vorrebbe un esegeta :D
Si legge pure male...:D

Passo...:stordita:

Cosi' a occhio direi che sono completamente differenti (R600 piu' complesso)...:asd:

Quei 64 poveri stream processor sembrano molto indaffarati...http://www.lshwupgrade.com/images/smiles/yaya.gif

A.L.M.
28-04-2007, 16:57
http://img410.imageshack.us/img410/6644/20070428deff9681f706dcalr8.jpg

Edit: per confronto

http://www.hwupgrade.it/articoli/skvideo/1597/architecture_1.gif


Come ulteriore confronto, ecco l'architettura delle X1xxx.

http://www.hwupgrade.it/articoli/skvideo/1359/architecture.jpg

bladerunner86
28-04-2007, 16:59
i benckmark che sono apparsi oggi su internet sono attendibili?

Kharonte85
28-04-2007, 17:00
i benckmark che sono apparsi oggi su internet sono attendibili?
:boh:

bladerunner86
28-04-2007, 17:01
ma la hd2900xt avra due connettori di 6 e 8 pin o entrambi di 6 pin come si vedono dalle immagini?

DVD2005
28-04-2007, 17:02
ma la hd2900xt avra due connettori di 6 e 8 pin o entrambi di 6 pin come si vedono dalle immagini?

io ero rimasto a 6 + 8 (uno e uno)

Foglia Morta
28-04-2007, 17:05
Si legge pure male...:D

Passo...:stordita:

Cosi' a occhio direi che sono completamente differenti (R600 piu' complesso)...:asd:

Quei 64 poveri stream processor sembrano molto indaffarati...http://www.lshwupgrade.com/images/smiles/yaya.gif

mi pare che una differenza fra G80 e R600 sta nel fatto che la cache di primo livello in R600 è condivisa fra tutte le tmu mentre in G80 ogni gruppo di tmu ha una sua cache L1 dedicata... cosa comporti ?

PASSO :D

Foglia Morta
28-04-2007, 17:06
i benckmark che sono apparsi oggi su internet sono attendibili?

un olandese ( solitamente bene informato ) dice di no... bisogna attendere la presentazione ufficiale

bladerunner86
28-04-2007, 17:08
cmq non avrebbe senso mettere 2 connettori diversi percè già con due connettori a 6 pin avrebbero tantissima energia a disposizione 375w (pcie 75W + 2xpin 150) introdurre un nuovo connettore e solo per far ulteriore confusione

Foglia Morta
28-04-2007, 17:11
cmq non avrebbe senso mettere 2 connettori diversi percè già con due connettori a 6 pin avrebbero tantissima energia a disposizione 375w (pcie 75W + 2xpin 150) introdurre un nuovo connettore e solo per far ulteriore confusione

no , un connettore 8pin + 6pin + slot pci-e in tutto possono arrivare a 300 W , 2 X 6pin + slot pci-e possono arrivare a 225 W

da notare nello schema il tessellatore programmabile

bladerunner86
28-04-2007, 17:12
ho visto che da quando c' è stato il congresso a TUNISI molti siti come questo, tom e lo stesso inquiner non abbiano più parlato r600 nè direttamente nè riportando notizie provenienti da altri siti, secondo voi perchè c' è nda o perchè sapenndo già la verità sanno che questi bench sono completamente sbagliati

A.L.M.
28-04-2007, 17:14
mi pare che una differenza fra G80 e R600 sta nel fatto che la cache di primo livello in R600 è condivisa fra tutte le tmu mentre in G80 ogni gruppo di tmu ha una sua cache L1 dedicata... cosa comporti ?

PASSO :D

A parità di quantitativo dovrebbe essere meglio, penso... :boh:
Comunque se fosse vera l'immagine, nel setup engine in giallo c'è il famoso tessellator: l'ipotesi DX10.1 rimane in piedi...

Se qualcuno trova una bella immagine di Xenos potrebbe postarla? Così confrontiamo... :)

Roman91
28-04-2007, 17:14
si sa niente di quanto costera la hd 2600??????e se monta la gddr3 oppure gddr4???

nn si sa niente??

Kharonte85
28-04-2007, 17:16
ho visto che da quando c' è stato il congresso a TUNISI molti siti come questo, tom e lo stesso inquiner non abbiano più parlato r600 nè direttamente nè riportando notizie provenienti da altri siti, secondo voi perchè c' è nda o perchè sapenndo già la verità sanno che questi bench sono completamente sbagliati
Per via dell'NDA.
nn si sa niente??
Probabilmente gddr4

il prezzo non si sa...
Se qualcuno trova una bella immagine di Xenos potrebbe postarla? Così confrontiamo... :)

http://www.ixbt.com/video2/images/3dvideoforpc-05q2/xenos.jpg

Ecco fatto....:stordita: :sofico: :D

Foglia Morta
28-04-2007, 17:21
Per via dell'NDA.

non penso. Esempio: Pochi giorni prima che venisse presentata la X1900 ( a Gennaio ) Sapphire per errore aveva uppato sul suo sito le caratteristiche tecniche e Corsini ci ha fatto una news... poi Sapphire accortasi dell'errore ha tolto le info e chiesto a hwupgrade di rimuovere la news. Corsini l'ha fatto per cortesia e collaborazione , ma non aveva violato l' NDA in quanto non era il suo sito la fonte , aveva solo riportato ciò che altri avevano scritto.

Forse pensano che non ne valga la pena farci una news su quei test :boh:

A.L.M.
28-04-2007, 17:23
http://www.ixbt.com/video2/images/3dvideoforpc-05q2/xenos.jpg

Ecco fatto....:stordita: :sofico: :D

Dell'architettura, intendevo... :D

Kharonte85
28-04-2007, 17:27
Dell'architettura, intendevo... :D
Sì lo so...:D lo sto cercando...;)
non penso. Esempio: Pochi giorni prima che venisse presentata la X1900 ( a Gennaio ) Sapphire per errore aveva uppato sul suo sito le caratteristiche tecniche e Corsini ci ha fatto una news... poi Sapphire accortasi dell'errore ha tolto le info e chiesto a hwupgrade di rimuovere la news. Corsini l'ha fatto per cortesia e collaborazione , ma non aveva violato l' NDA in quanto non era il suo sito la fonte , aveva solo riportato ciò che altri avevano scritto.

Forse pensano che non ne valga la pena farci una news su quei test :boh:
Non lo so...credo dipenda anche dal tipo di accordo (forse prevede queste cose)...:boh:

Kharonte85
28-04-2007, 17:33
Ho trovato questo:

http://plaza.fi/s/f/vanhat/67401.png

Non so che lingua sia pero'...:D

Questo forse è meglio:

http://www.radeon2.ru/articles/xbox/pic/image002.jpg

http://www.radeon2.ru/articles/xbox/pic/image002_1.jpg (la stessa ma ingrandita)

;)

Foglia Morta
28-04-2007, 17:33
Dell'architettura, intendevo... :D

Edit:già postato

Kharonte85
28-04-2007, 17:35
Edit:già postato
:Prrr: :D ;)

The_SaN
28-04-2007, 17:42
A parità di quantitativo dovrebbe essere meglio, penso... :boh:
Comunque se fosse vera l'immagine, nel setup engine in giallo c'è il famoso tessellator: l'ipotesi DX10.1 rimane in piedi...

Se qualcuno trova una bella immagine di Xenos potrebbe postarla? Così confrontiamo... :)

L' ipotesi delle dx 10.1 per ora non va scartata.
Io ci spero davvero, anche se ci vorrá molto perché vengano sfruttate (é un bel valore aggiunto)

PS: dai, basta inquinare il thread con post di sole faccine...(non a te A.L.M. per caritá :D )

bladerunner86
28-04-2007, 17:47
ma i driver per queste schede quando usciranno?

A.L.M.
28-04-2007, 17:48
Osservando meglio l'immagine credo si possa dire che le shader units di R600 siano vec4+1 (le immagini mostrano 4 rettangoli gialli uguali ed un quinto diverso... :stordita: ).

Foglia Morta
28-04-2007, 18:05
questi test dovrebbero essere ottenuti con un E6600 a default

http://www.chiphell.com/attachments/month_0704/20070429_794341e05ece44261700h3X8YMnP0Nqf.jpg

http://www.chiphell.com/attachments/month_0704/20070428_1c1a353f4effff7f1ecdKWSQZibFPLOw.jpg

fukka75
28-04-2007, 18:17
ma i driver per queste schede quando usciranno?

Consideranno che ancora non ci sono nemmeno le schede direi che è inutile chiedere driver ....
Cmnq è presumibile che verranno rilasciati il 14 maggio, insieme alla schede stesse

Kharonte85
28-04-2007, 18:28
questi test dovrebbero essere ottenuti con un E6600 a default

Certo che il test del 2001 se lo potevano anche risparmiare...:D

halduemilauno
28-04-2007, 18:32
Certo che il test del 2001 se lo potevano anche risparmiare...:D

http://www.tomshw.it/news.php?newsid=9878
;)

Jobei
28-04-2007, 18:45
Penso che questi bench non siano ancora stati postati :

Core Clock 745 MHz
Memory Clock 800 MHz
3DMark06 1280x1024 13547
3DMark06 1600x1200 10978

Core Clock 800 MHz
Memory Clock 900 MHz
3DMark06 1280x1024 13855
3DMark06 1600x1200 11164

Core Clock 845 MHz
Memory Clock 950 MHz
3DMark06 1280x1024 13908
3DMark06 1600x1200 11219

Core Clock 845 MHz
Memory Clock 995 MHz
3DMark06 1280x1024 14005
3DMark06 1600x1200 11266

Test fatti con una Readeon X2900XT e driver Catalyst 8.361 RC4 su una macchina composta da Intel Core 2 Extreme QX6800, ASUS P5N32SLI-E e 2x2GB di DDR2-800.

Si è messo in evidenza che una GeForce 8800 GTX (gpu a 650 MHz e ram a 1000MHz) ha ottenuto 14128 (1280x1024) e 11867 (1600x1200) usando driver ForceWare 158.19.

Fonte
http://www.dailytech.com/Overclocking+the+R600/article7044.htm

Foglia Morta
28-04-2007, 18:45
http://www.chiphell.com/attachments/month_0704/20070429_e6e9c8d4265913b99ea9EFruDQGlb4b8.jpg

Foglia Morta
28-04-2007, 18:50
R600 XT con E6600 a default
http://www.chiphell.com/attachments/month_0704/20070429_da39f7c4233fdd9cf0c0pecq13fv8Zhx.jpg

GTX con E6600 a 2,8Ghz
http://www.chiphell.com/attachments/month_0704/20070429_b6479c89355e3dea6764HWJwJMDpVk3X.jpg

questo stando alla fonte... ma non potrebbero essere invertiti i clock dei proci ? non mi intendo di 3dmark 2006 il cpu score sarebbe più alto con E6600 a default rispetto a quello a 2,8Ghz... imho hanno invertito per sbaglio

Skullcrusher
28-04-2007, 18:50
un olandese ( solitamente bene informato ) dice di no... bisogna attendere la presentazione ufficiale

A mio parere quando avverrà la presentazione ci sarà qualche piacevole sorpresa......per ora, ciò che più mi preme, è sapere la silenziosità del nuovo dissipatore.....spero abbiano capito che una vga che sembra una turbina a reazione non va affatto bene :)

Defragg
28-04-2007, 18:52
http://www.chiphell.com/attachments/month_0704/20070429_e6e9c8d4265913b99ea9EFruDQGlb4b8.jpg
il pcb di per sè non è lungo, anzi, dovrebbe essere come quello retail...

...ma ogni volta che vedo quel ventolone rimango così :eek: :sofico:

jp77
28-04-2007, 18:57
R600 XT con E6600 a default
http://www.chiphell.com/attachments/month_0704/20070429_da39f7c4233fdd9cf0c0pecq13fv8Zhx.jpg

GTX con E6600 a 2,8Ghz
http://www.chiphell.com/attachments/month_0704/20070429_b6479c89355e3dea6764HWJwJMDpVk3X.jpg

questo stando alla fonte... ma non potrebbero essere invertiti i clock dei proci ? non mi intendo di 3dmark 2006 il cpu score sarebbe più alto con E6600 a default rispetto a quello a 2,8Ghz... imho hanno invertito per sbaglio

ma io 3000 punti al cpu score li faccio a 3400mhz sempre con un e6600 quindi la velocita della cpu non è quella

bluefrog
28-04-2007, 19:06
Ma da questi numeri adesso che ci vogliono far credere, che la HD 2900XT potrà competere con la 8800GTX? Speriamo ma siccome non ci si capisce più nulla... non vi siete rotti le balle di cercare (e postare sul forum) numeri a destra e manca invece di aspettare le recensioni definitive?

Roman91
28-04-2007, 19:12
dei prezzi della hd x2600 xt o gtx nn si sa niente???

dantes76
28-04-2007, 19:13
Ma da questi numeri adesso che ci vogliono far credere, che la HD 2900XT potrà competere con la 8800GTX? Speriamo ma siccome non ci si capisce più nulla... non vi siete rotti le balle di cercare (e postare sul forum) numeri a destra e manca invece di aspettare le recensioni definitive?

Quoto, ho fatto un giretto per i vari forum, sinceramente non ci sto capendo piu' niente:muro:
Cmq credo che Amd-Ati, da questa pre-presentazione, abbia molto da imparare, per come e' stata gestita

Kharonte85
28-04-2007, 19:20
dei prezzi della hd x2600 xt o gtx nn si sa niente???
:eek: cmq no...
A mio parere quando avverrà la presentazione ci sarà qualche piacevole sorpresa......per ora, ciò che più mi preme, è sapere la silenziosità del nuovo dissipatore.....spero abbiano capito che una vga che sembra una turbina a reazione non va affatto bene :)
Dei vecchi rumors di the inQ mi pare sostenessero che la scheda era silenziosa, quindi (vista la fonte) si' sara' rumorosa...:sofico:

bladerunner86
28-04-2007, 19:22
Quoto, ho fatto un giretto per i vari forum, sinceramente non ci sto capendo piu' niente:muro:
Cmq credo che Amd-Ati, da questa pre-presentazione, abbia molto da imparare, per come e' stata gestita

amd sta facendo una politica completamente contro i consumatori, sta imponendo un Nda per non far trapelare che le proprie schede sono inferiori alla gtx come se poi dopo il 14 maggio queste cose non si verranno a sapere

dj883u2
28-04-2007, 19:24
amd sta facendo una politica completamente contro i consumatori, sta imponendo un Nda per non far trapelare che le proprie schede sono inferiori alla gtx come se poi dopo il 14 maggio queste cose non si verranno a sapere
In base a che cosa dici questo?
Ciao

ATi7500
28-04-2007, 19:27
amd sta facendo una politica completamente contro i consumatori, sta imponendo un Nda per non far trapelare che le proprie schede sono inferiori alla gtx come se poi dopo il 14 maggio queste cose non si verranno a sapere

anche se fosse, essendo due fasce di prezzo differenti perchè le poni a confronto?

bYeZ!

bladerunner86
28-04-2007, 19:33
anche se fosse, essendo due fasce di prezzo differenti perchè le poni a confronto?

bYeZ!

è il prodotto a fare il prezzo o il contrario? il prezzo del r600 è dovuto proprio al fatto che le sue prestazioni non sono confrontabili condel 8800gtx, se ati avesse avuto un prodotto simile o superiore a quello di nvidia i prezzi sarebbero stati allineati con quello del rivali. ora ci resta da capire se r600 è stato sopravvalutato o se la 8800 gtx è stato sottovalutato?

bladerunner86
28-04-2007, 19:36
In base a che cosa dici questo?
Ciao


mentre siti come fudzilla ecc.. sono poco attendibile il sito dailytech è abbastanza attendibile, i suoi dati non sono stati poi divulgati da altri siti per il fatto che c' è il veto di Ati.

dj883u2
28-04-2007, 19:38
è il prodotto a fare il prezzo o il contrario? il prezzo del r600 è dovuto proprio al fatto che le sue prestazioni non sono confrontabili condel 8800gtx, se ati avesse avuto un prodotto simile o superiore a quello di nvidia i prezzi sarebbero stati allineati con quello del rivali. ora ci resta da capire se r600 è stato sopravvalutato o se la 8800 gtx è stato sottovalutato?
Tu parli come se sai già che R600 sarà inferiore alle attuali schede nvidia.
Ti ripeto, in base a cosa lo dici?
Se fai affermazioni del genere, devi anche dimostrare quello che dici!
Le chiacchiere stanno a zero.
Contano i fatti.
Mostraci i test reali dove dimostri che R600 è una buffonata!
Aspetto.
Ciao;)

bladerunner86
28-04-2007, 19:48
Tu parli come se sai già che R600 sarà inferiore alle attuali schede nvidia.
Ti ripeto, in base a cosa lo dici?
Se fai affermazioni del genere, devi anche dimostrare quello che dici!
Le chiacchiere stanno a zero.
Contano i fatti.
Mostraci i test reali dove dimostri che R600 è una buffonata!
Aspetto.
Ciao;)

se ati è superiore per quale motivo ha imposto nda, ma ,soprattutto, non sta lanciando annunci dell propria superiorità su nvidia proprio come sta facendo amd con i k10?

Free Gordon
28-04-2007, 19:53
no , un connettore 8pin + 6pin + slot pci-e in tutto possono arrivare a 300 W , 2 X 6pin + slot pci-e possono arrivare a 225 W
da notare nello schema il tessellatore programmabile


Nell'immagine di qualche pagina fà si vede una Xt con 6+6 (effettivamente collegati) per cui max a 225W...

Penso che sia un pò sotto i 200W il consumo effettivo in load, a questo punto. Io scommetto 190! :D

Defragg
28-04-2007, 19:57
Nell'immagine di qualche pagina fà si vede una Xt con 6+6 (effettivamente collegati) per cui max a 225W...

Penso che sia un pò sotto i 200W il consumo effettivo in load, a questo punto. Io scommetto 190! :D

ci sono anche i 75W del PCI-e ;)

TecnoWorld8
28-04-2007, 19:59
se veramente il panorama è questo, è una tristezza per chi, come me, voleva comprare una scheda top prima dell'estate, insieme ad un monitor 16:9.

Infatti si dovranno comunque spendere tra i 400 ed i 500 euro almeno per prendere o una GTX "vecchia" di 7-8 mesi, o una XT che comunque secondo me nel giro di 2-3 mesi verrà soppiantata da un modello a 65nm. Quindi entrambe le soluzioni destinate a durare al top per pochissimo...

Free Gordon
28-04-2007, 20:06
è il prodotto a fare il prezzo o il contrario? il prezzo del r600 è dovuto proprio al fatto che le sue prestazioni non sono confrontabili condel 8800gtx, se ati avesse avuto un prodotto simile o superiore a quello di nvidia i prezzi sarebbero stati allineati con quello del rivali. ora ci resta da capire se r600 è stato sopravvalutato o se la 8800 gtx è stato sottovalutato?



Le prestazioni della 2900XT "potrebbero" essere inferiori in dx9 a quelle della 8800GTX ma in dx10 chi lo sa?
In questo caso il prezzo sarebbe più basso della GTX e basta. :D
Ricorda, molto dipenderà da come le schede andranno in dx10...

Imho cmq, ATI ha anticipato troppo i tempi e le features che ha inserito anche in R520/580 hanno pagato poco rispetto all'impegno profuso per ottenerle. R600 potrebbe seguire la stessa strada, portandola alle estreme conseguenze però...

Free Gordon
28-04-2007, 20:08
ci sono anche i 75W del PCI-e ;)


Nei 225 teorici sono già contati i W del PCI-e. ;)

ATi7500
28-04-2007, 20:15
se ati è superiore per quale motivo ha imposto nda, ma ,soprattutto, non sta lanciando annunci dell propria superiorità su nvidia proprio come sta facendo amd con i k10?

mai sentito parlare di bluff?

bYeZ!

bladerunner86
28-04-2007, 20:19
Le prestazioni della 2900XT "potrebbero" essere inferiori in dx9 a quelle della 8800GTX ma in dx10 chi lo sa?
In questo caso il prezzo sarebbe più basso della GTX e basta. :D
Ricorda, molto dipenderà da come le schede andranno in dx10...

Imho cmq, ATI ha anticipato troppo i tempi e le features che ha inserito anche in R520/580 hanno pagato poco rispetto all'impegno profuso per ottenerle. R600 potrebbe seguire la stessa strada, portandola alle estreme conseguenze però...

qualunque prestazione avrà la hd2900xt mi aspetto un calo generale dei prezzi delle schede video sia nvidia che ati. le dx10 sono un incognita non solo per nvidia ma anche per la stessa ati.
. cmq il mio sogno è che ati mi smentisca.

dj883u2
28-04-2007, 20:29
se ati è superiore per quale motivo ha imposto nda, ma ,soprattutto, non sta lanciando annunci dell propria superiorità su nvidia proprio come sta facendo amd con i k10?
Lo sai vero che le notizie negative fanno + scalpore di quelle positive!Fanno parlare.Nel bene o nel male è sempre pubblicità!
Non è solo ATI che impone nda, ma amche Nvidia.
Amd non deve dimostrare niente a nessuno.
Quando sarà ora usciranno i test seri, e su quelli faremo le considerazioni!
Il resto sono solo chiacchiere da bar!
Ciao

fukka75
28-04-2007, 20:32
anche se fosse, essendo due fasce di prezzo differenti perchè le poni a confronto?

bYeZ!

Per lo stesso motivo per cui tu dici che sono in due diverse fasce di prezzo: entrambi vi basate su rumors, che non hanno avuto nessuna conferma, anzi sono stati puntualmente smentiti ;)

The_SaN
28-04-2007, 20:40
è il prodotto a fare il prezzo o il contrario? il prezzo del r600 è dovuto proprio al fatto che le sue prestazioni non sono confrontabili condel 8800gtx, se ati avesse avuto un prodotto simile o superiore a quello di nvidia i prezzi sarebbero stati allineati con quello del rivali. ora ci resta da capire se r600 è stato sopravvalutato o se la 8800 gtx è stato sottovalutato?

Infatti le x1950xtx che al lancio costavano meno di 450Euro andavano meno della 7900gtx che ne costava 550...
Non credo sia un ragionamento adeguato.
Comunque dai, manca sempre meno e sti benedetti test usciranno ;)

Defragg
28-04-2007, 21:15
Nei 225 teorici sono già contati i W del PCI-e. ;)

ah bene :)

Defragg
28-04-2007, 21:16
Infatti le x1950xtx che al lancio costavano meno di 450Euro andavano meno della 7900gtx che ne costava 550...
Non credo sia un ragionamento adeguato.
Comunque dai, manca sempre meno e sti benedetti test usciranno ;)

x1950xtx inferiore a 7900gtx? :mbe:

magari a 7950gx2 ;)

The_SaN
28-04-2007, 21:49
x1950xtx inferiore a 7900gtx? :mbe:

magari a 7950gx2 ;)

Ma mica gli ho dato ragione...infatti ho usato un tono ironico ;)

Foglia Morta
28-04-2007, 22:09
ma io 3000 punti al cpu score li faccio a 3400mhz sempre con un e6600 quindi la velocita della cpu non è quella

infatti... l'autore ha corretto ( almeno penso ):

11603, R600XT 745/828, C2D E6600 @ 3.6GHz

http://www.chiphell.com/attachments/month_0704/20070429_da39f7c4233fdd9cf0c0pecq13fv8Zhx.jpg

10855, 8800GTX 575/900, C2D E6600 @ 3.1GHz

http://www.chiphell.com/attachments/month_0704/20070429_4cfd5037ac13924be2d3Z31QAnNY5MRx.jpg

Foglia Morta
28-04-2007, 22:14
e pare che abbiano overclockato facilmente la XT a 890 Mhz ( non specificano , quindi penso dissi stock )

Marko91
28-04-2007, 22:19
infatti... l'autore ha corretto ( almeno penso ):

11603, R600XT 745/828, C2D E6600 @ 3.6GHz

http://www.chiphell.com/attachments/month_0704/20070429_da39f7c4233fdd9cf0c0pecq13fv8Zhx.jpg

10855, 8800GTX 575/900, C2D E6600 @ 3.1GHz

http://www.chiphell.com/attachments/month_0704/20070429_4cfd5037ac13924be2d3Z31QAnNY5MRx.jpg
Più o meno, se entrambi i processori fossero alla stessa frequenza, le prestazioni al 3D Mark sarebbero praticamente uguali.
Interessante l'oc a 890 Mhz con dissi stock...
dove l'hai letto?

Foglia Morta
28-04-2007, 22:28
Più o meno, se entrambi i processori fossero alla stessa frequenza, le prestazioni al 3D Mark sarebbero praticamente uguali.
Interessante l'oc a 890 Mhz con dissi stock...
dove l'hai letto?

B3D , chi riporta ste cose penso sia un cinese

Free Gordon
28-04-2007, 23:04
infatti... l'autore ha corretto ( almeno penso ):
11603, R600XT 745/828, C2D E6600 @ 3.6GHz
http://www.chiphell.com/attachments/month_0704/20070429_da39f7c4233fdd9cf0c0pecq13fv8Zhx.jpg
10855, 8800GTX 575/900, C2D E6600 @ 3.1GHz
http://www.chiphell.com/attachments/month_0704/20070429_4cfd5037ac13924be2d3Z31QAnNY5MRx.jpg



Secondo questi dati, la XT darebbe un risultato, nel test SM3.0 del 2006, superiore alla GTX di 9 punti percentuali.

In totale controtendenza rispetto a ciò che si è detto fino ad oggi.. :mbe:

Mah, è veramente assurdo il casotto che si sta facendo su questo fantomatico R600.. :fagiano:

ShineOn
28-04-2007, 23:24
Infatti le x1950xtx che al lancio costavano meno di 450Euro andavano meno della 7900gtx che ne costava 550...
Non credo sia un ragionamento adeguato.
Comunque dai, manca sempre meno e sti benedetti test usciranno ;)

Si ma quando usciranno? Mi sembra che ci doveva essere una specie di anteprima non so dove il 22-23 aprile...o no?

Marko91
28-04-2007, 23:37
Global illumination engine tech-demo on HD2900XT:
http://www.hardspell.com/english/doc/showcont.asp?news_id=479&pageid=580

Su R600XT a 1280x1024 dettagli massimi. NFS Carbon viaggia a 82 fps.
http://www.chiphell.com/attachments/month_0704/20070429_8931abca6d850246e14fFFnaxxaGdX9T.jpg

The_SaN
29-04-2007, 00:18
Si ma quando usciranno? Mi sembra che ci doveva essere una specie di anteprima non so dove il 22-23 aprile...o no?

Il 23-24 aprile c'é stata un anteprima sotto NDA.
Per la presentazione aperta bisogna aspettare ancora un pochino.
Alcuni parlano del 2 maggio per la sola XT (e le altre il 14), mentre altri parlano del 14 per tutta la gamma.

Poliphilo
29-04-2007, 00:18
E gia', dato che la xtx molto probabilmente non esce nemmeno...

Esce, esce. ;)

TecnoWorld8
29-04-2007, 00:22
credo uscirà, per evitare una figuraccia galattica. resta da vedere il costo...a oltre 500/550 euro, credo che oggi come oggi non abbia senso acquistare schede di questa "generazione", che secondo me sarà sorpassata prima di settembre. ricordiamoci che la generazione è la stessa di G80, fuori da 7 mesi. credo quindi che entro 2-3 mesi nVidia annuncerà lo step successivo.

Foglia Morta
29-04-2007, 07:58
credo uscirà, per evitare una figuraccia galattica. resta da vedere il costo...a oltre 500/550 euro, credo che oggi come oggi non abbia senso acquistare schede di questa "generazione", che secondo me sarà sorpassata prima di settembre. ricordiamoci che la generazione è la stessa di G80, fuori da 7 mesi. credo quindi che entro 2-3 mesi nVidia annuncerà lo step successivo.

fai una rece già che ci sei :rolleyes:

appleroof
29-04-2007, 08:47
credo uscirà, per evitare una figuraccia galattica. resta da vedere il costo...a oltre 500/550 euro, credo che oggi come oggi non abbia senso acquistare schede di questa "generazione", che secondo me sarà sorpassata prima di settembre. ricordiamoci che la generazione è la stessa di G80, fuori da 7 mesi. credo quindi che entro 2-3 mesi nVidia annuncerà lo step successivo.

Ho letto da qualche parte che a dicembre usciranno le dx10.1 per supportare il wdm 2.1 che microsoft rilascerà con il primo sp per Vista...

parcher
29-04-2007, 08:51
Ho letto da qualche parte che a dicembre usciranno le dx10.1 per supportare il wdm 2.1 che microsoft rilascerà con il primo sp per Vista...

Cos'e il wdm 2.1 ?? Please..

P.:Prrr:

Kharonte85
29-04-2007, 08:55
Esce, esce. ;)
Link?

Non certo il 14...

appleroof
29-04-2007, 09:02
Cos'e il wdm 2.1 ?? Please..

P.:Prrr:

windows driver model, presente da windows98 in poi mi pare, la nuova versione dovrebbe appunto uscire con il service pack 1 di vista

Robbysca976
29-04-2007, 09:19
windows driver model, presente da windows98 in poi mi pare, la nuova versione dovrebbe appunto uscire con il service pack 1 di vista

Be cose inutili visto ke non ci sono neanche i giochi dx10.0

appleroof
29-04-2007, 09:27
Be cose inutili visto ke non ci sono neanche i giochi dx10.0

A me stupisce molto questa velocità di avvicendamento (a meno che, come non sembra, le dx10.1 non necessitino di hw dedicato), proprio perchè ancora non si è visto un gioco dx10 e già si parla di dx10.1, stiamo a vedere...

bladerunner86
29-04-2007, 09:29
Su R600XT a 1280x1024 dettagli massimi. NFS Carbon viaggia a 82 fps.
http://www.chiphell.com/attachments/month_0704/20070429_8931abca6d850246e14fFFnaxxaGdX9T.jpg

e quanti fps fa una 8800 gtx e una 8800 gts nello stesso gioco ?

appleroof
29-04-2007, 09:35
e quanti fps fa una 8800 gtx e una 8800 gts nello stesso gioco ?

La mia fà sui 50 a 1920x1200 af16x aa4x ;)

bladerunner86
29-04-2007, 09:41
La mia fà sui 50 a 1920x1200 af16x aa4x ;)

quindi nelle stessa situazione la 8800 gtx quanto dovrebbe fare io ho trovato solo i test di una 8800 gtx con un e6600 1680x1050 widescreen with 4XAA/16X Anisotrophic filtering con Min: 46 - Max: 73 fps
fonte http://forums.extremeoverclocking.com/showthread.php?p=2539682

bladerunner86
29-04-2007, 09:47
ora ho trovato tutti i test su questo gioco
http://www.motherboards.org/reviews/hardware/1685_17.html
se la notzia riportata da Marko 91 fosse vera conferma che la 2900xt è superiore alla 8800 gts ma inferiore alla 8800 gtx

jp77
29-04-2007, 09:49
ora ho trovato tutti i test su questo gioco
http://www.motherboards.org/reviews/hardware/1685_17.html
se la notzia riportata da Marko 91 fosse vera conferma che la 2900xt è superiore alla 8800 gts ma inferiore alla 8800 gtx


non mi pare proprio visto che in quel test la gtx ne fa 70 :rolleyes: cmq questi test (x2900xt) non hanno nessuna affidabilità

Robbysca976
29-04-2007, 09:55
Io ribadisco il concetto ke se questa gpu fosse stata una bomba AMD avrebbe fatto in modo che si sapesse, vedi Intell con i Conroe ed ora con i Pheryn. Se invece la scheda è così così il tanto riserbo è legato a trattenere ulteriormente dall'acquisto gli utenti che vogliono prendersi una 8800gts.... :D

gianni1879
29-04-2007, 10:02
Secondo questi dati, la XT darebbe un risultato, nel test SM3.0 del 2006, superiore alla GTX di 9 punti percentuali.

In totale controtendenza rispetto a ciò che si è detto fino ad oggi.. :mbe:

Mah, è veramente assurdo il casotto che si sta facendo su questo fantomatico R600.. :fagiano:

io credo che anche i test precedenti potrebbero esser anche veritieri ma credo i driver erano molto acerbi e non supportavano bene la hd2900xt, magari c'è qualche nuova versione che migliora un pò il supporto

Jobei
29-04-2007, 10:02
Fudzilla oggi fa un confronto sulle differenti architetture degli Stream Processor tra Ati e Nvidia :

There is a big difference between Unified Shaders (US) and Stream Processor (SP). Geforce G80 GTX according to Nvidia has 128 Shader processors but in every cluster Nvidia has 4 more SFUs (Special function Units), so in fact G80 GTX has 160 Stream Processors. It all depends how you define Stream processor. SFU is however a crucial part of the pipeline unit so we should not count them as the external part so we should stick to a 128 Shader units number.

The R600 has 64 Unified Shader but they are vec5 (4v+1skalar), so the R600 has 320 Stream processors or lets call it just multiply-accumulate units. These 64 us are divided in 4 blocks. 320 stream processors are actually 64 4D + 64 1D. If you do the match 64*4+64 will give you the 320 number.

Nvidia has a big advantage as its Stream processors works at 1.35 GHz and this really goes well versus 320 Stream processors or Multiply-accumulate units at 800 MHz. R6xx GPUs can easily be faster in future games like Crysis or Unreal Tournament 2007. This might only happen if these companies decides to go for the complex Shaders all of the time. So far no one made such a Shader so far.


Nell'articolo vengono fatti anche degli esempi di come i programmatori potrebbero utilizzare queste architetture e quale risulterebbe più efficiente.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=733&Itemid=1

Roman91
29-04-2007, 10:03
non si niente della R630 XT oltre al prezzo:D ?????????

Robbysca976
29-04-2007, 10:07
http://www.dailytech.com/DailyTech+Digest+Making+Sense+of+R600/article7079.htm

gianni1879
29-04-2007, 10:07
Global illumination engine tech-demo on HD2900XT:
http://www.hardspell.com/english/doc/showcont.asp?news_id=479&pageid=580

Su R600XT a 1280x1024 dettagli massimi. NFS Carbon viaggia a 82 fps.
http://www.chiphell.com/attachments/month_0704/20070429_8931abca6d850246e14fFFnaxxaGdX9T.jpg

immagine presa in un punto qualsiasi di pista, direi quindi attendibilità prossima allo zero!!!

appleroof
29-04-2007, 10:07
Fudzilla oggi fa un confronto sulle differenti architetture degli Stream Processor tra Ati e Nvidia :

There is a big difference between Unified Shaders (US) and Stream Processor (SP). Geforce G80 GTX according to Nvidia has 128 Shader processors but in every cluster Nvidia has 4 more SFUs (Special function Units), so in fact G80 GTX has 160 Stream Processors. It all depends how you define Stream processor. SFU is however a crucial part of the pipeline unit so we should not count them as the external part so we should stick to a 128 Shader units number.

The R600 has 64 Unified Shader but they are vec5 (4v+1skalar), so the R600 has 320 Stream processors or lets call it just multiply-accumulate units. These 64 us are divided in 4 blocks. 320 stream processors are actually 64 4D + 64 1D. If you do the match 64*4+64 will give you the 320 number.

Nvidia has a big advantage as its Stream processors works at 1.35 GHz and this really goes well versus 320 Stream processors or Multiply-accumulate units at 800 MHz. R6xx GPUs can easily be faster in future games like Crysis or Unreal Tournament 2007. This might only happen if these companies decides to go for the complex Shaders all of the time. So far no one made such a Shader so far.


Nell'articolo vengono fatti anche degli esempi di come i programmatori potrebbero utilizzare queste architetture e quale risulterebbe più efficiente.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=733&Itemid=1

Per una volta un articolo veramente molto interessante (almeno per me e al di là delle conclusioni :rolleyes: ) da fudzilla....;)

Foglia Morta
29-04-2007, 10:07
HD 2600

http://img215.imageshack.us/img215/3317/hd2600wg2.jpg

HD 2400

http://img214.imageshack.us/img214/5963/hd2400xl4.jpg

betha
29-04-2007, 10:08
A me stupisce molto questa velocità di avvicendamento (a meno che, come non sembra, le dx10.1 non necessitino di hw dedicato), proprio perchè ancora non si è visto un gioco dx10 e già si parla di dx10.1, stiamo a vedere...

Ahi Ahi:) la vedo male per il g80 se non fosse compatibile 10.1 come sembra prima di settembre é difficile che escano giochi dx 10 e se il spack é 10.1 gli sviluppatori andranno direttamente su 10.1....:muro:

A.L.M.
29-04-2007, 10:09
ora ho trovato tutti i test su questo gioco
http://www.motherboards.org/reviews/hardware/1685_17.html
se la notzia riportata da Marko 91 fosse vera conferma che la 2900xt è superiore alla 8800 gts ma inferiore alla 8800 gtx
Bisogna capire se c'è o meno l'AA. Mi pare di no. Ovviamente devi considerare i valori di una scheda "stock", quindi 86fps circa in media (lì mi sa che hanno scambiato i nomi, è sicuramente la XXX a fare più frames). Il problema è che anche uno screenshot non da' grosse certezze, potrebbe essere il picco di frames o la media. Tra l'altro l'immagine è ripresa quando l'auto fa la scia, ossia quando l'effetto motion blur, che in NFS:C è pesantissimo, diventa più evidente. Quindi comunque la media potrebbe essere ben più alta. ;)

A me stupisce molto questa velocità di avvicendamento (a meno che, come non sembra, le dx10.1 non necessitino di hw dedicato), proprio perchè ancora non si è visto un gioco dx10 e già si parla di dx10.1, stiamo a vedere...

Sulle DX10.1, non è automatico che tutto l'HW DX10 sia anche DX10.1 compliant, visto che comunque anche nelle slides di Microsoft che avevo postato tempo fa uno dei "pilastri" ipotizzati di questo aggiornamento era proprio la tessellation unit, che le nVIDIA non hanno. :)

HD 2600

http://img215.imageshack.us/img215/3317/hd2600wg2.jpg

HD 2400

http://img214.imageshack.us/img214/5963/hd2400xl4.jpg

Come si può notare, la HD2600 avrebbe 24 shader units Vec4+1 (120 equivalenti), ed un solo blocco di ROPs (quindi 4 o 5 ROPs, dal disegno non si capisce bene) e 2 di TMU. Inoltre la sua architettura ricalca esattamente quella delle HD2900 (a parte il bus, ovviamente), sebbene le shader units siano in 3 gruppi da 8 (al posto dei gruppi da 16 come nelle HD2900)
Le HD2400 sono invece schede "semplificate": 8 shader units Vec4+1 (80 equivalenti) 1 blocco di ROPs e uno di TMU, ma soprattutto un'unica cache per vertex e textures, in un solo livello.

Robbysca976
29-04-2007, 10:11
Fudzilla oggi fa un confronto sulle differenti architetture degli Stream Processor tra Ati e Nvidia :

There is a big difference between Unified Shaders (US) and Stream Processor (SP). Geforce G80 GTX according to Nvidia has 128 Shader processors but in every cluster Nvidia has 4 more SFUs (Special function Units), so in fact G80 GTX has 160 Stream Processors. It all depends how you define Stream processor. SFU is however a crucial part of the pipeline unit so we should not count them as the external part so we should stick to a 128 Shader units number.

The R600 has 64 Unified Shader but they are vec5 (4v+1skalar), so the R600 has 320 Stream processors or lets call it just multiply-accumulate units. These 64 us are divided in 4 blocks. 320 stream processors are actually 64 4D + 64 1D. If you do the match 64*4+64 will give you the 320 number.

Nvidia has a big advantage as its Stream processors works at 1.35 GHz and this really goes well versus 320 Stream processors or Multiply-accumulate units at 800 MHz. R6xx GPUs can easily be faster in future games like Crysis or Unreal Tournament 2007. This might only happen if these companies decides to go for the complex Shaders all of the time. So far no one made such a Shader so far.


Nell'articolo vengono fatti anche degli esempi di come i programmatori potrebbero utilizzare queste architetture e quale risulterebbe più efficiente.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=733&Itemid=1

Si ok ma cmq questi "giochini" son già ormai pronti...per cui la decisione l'han presa molto prima su come prg il motore grafico e visto ke nvidia è uscita prima con le gpu dx10 credo proprio ke si siano basati soprattutto sull'architettura di g80.

GabrySP
29-04-2007, 10:17
Trovami un test a 1600 con 8xAA e 16x anisotropico con una x1650xt o x1950pro...voglio proprio vedere se fanno meglio...

http://www.hwupgrade.it/articoli/skvideo/1562/multi-gpu-roundup-crossfire-sli-e-quad-sli_9.html

:Prrr: :Prrr: :Prrr:

88.2 a 1600x1200 AA8x aniso 16x (mappa più pesante) :mc: (con pc vecchio come il cucco e driver molto :old: )

Due X1950XTX fanno più di due R600 in regulator che è molto più pesante di research (+ 50%).

Non ho ne il tempo ne la voglia di cercare una Pro ma non credo che sia molto distande dagli 80pfs in research ;) (ne farà qualcuno in più)

Resta il fatto che un R600 non può fare solo 40 frame in in gioco che dire leggero è un eufemismo :eek:

PS. credo che tu sia l'unico al mondo a credere a quel test :boh:

appleroof
29-04-2007, 10:17
Ahi Ahi:) la vedo male per il g80 se non fosse compatibile 10.1 come sembra prima di settembre é difficile che escano giochi dx 10 e se il spack é 10.1 gli sviluppatori andranno direttamente su 10.1....:muro:

Io credo che passerà ancora del tempo prima di vedere giochi fulldx10.1 (cmq non prima della metà del 2008 IMHO) e questo sarebbe ottimo. Per il resto, in ogni caso, bisogna vedere come/quanto le feature delle dx10.1 impatteranno su un gioco e le differenze rispetto alle dx10. Da ultimo, uno potrebbe cmq fregarsene e tenersi cmq la scheda (alcuni addirittura hanno ancora le 9800pro...)

;)

Sulle DX10.1, non è automatico che tutto l'HW DX10 sia anche DX10.1 compliant, visto che comunque anche nelle slides di Microsoft che avevo postato tempo fa uno dei "pilastri" ipotizzati di questo aggiornamento era proprio la tessellation unit, che le nVIDIA non hanno. :)

Infatti ho scritto quello che hai letto

Marko91
29-04-2007, 10:18
non mi pare proprio visto che in quel test la gtx ne fa 70 :rolleyes: cmq questi test (x2900xt) non hanno nessuna affidabilità

La GTX overcloccata della XFX ne fa 78, quella a default 70.

Per quanto riguarda ciò che ha detto fudzilla è interessante, aspetto l'opinione anche dei più esperti. A me cmq interessano le prestazioni in Dx10 e sembra che almeno lì R600 possa dare di più di G80.

:)

appleroof
29-04-2007, 10:19
La GTX overcloccata della XFX ne fa 78, quella a default 70.

Per quanto riguarda ciò che ha detto fudzilla è interessante, aspetto l'opinione anche dei più esperti. A me cmq interessano le prestazioni in Dx10 e sembra che almeno lì R600 possa dare di più di G80.

:)

Senza intenti polemici (ormai in questo tread bisogna specificarlo :asd: ), ma su che basi affermi questo?

appleroof
29-04-2007, 10:21
Si ok ma cmq questi "giochini" son già ormai pronti...per cui la decisione l'han presa molto prima su come prg il motore grafico e visto ke nvidia è uscita prima con le gpu dx10 credo proprio ke si siano basati soprattutto sull'architettura di g80.

Sono d'accordo, non credo potessero testare un gioco su un hw inesistente, a meno che il rinvio contiuno del gioco sia dettato anche da questo (Ed in ogni caso non potrebbero stravolgere il programma in pochi mesi...)

A.L.M.
29-04-2007, 10:24
Per quanto riguarda ciò che ha detto fudzilla è interessante, aspetto l'opinione anche dei più esperti. A me cmq interessano le prestazioni in Dx10 e sembra che almeno lì R600 possa dare di più di G80.

:)

Infatti sarebbe interessante sentire l'opinione di Vifani o leoneazzurro sulla seconda parte dell'articolo di Fudzilla...

Nvidia's G80 can process more simple Shaders as its stream processor can process a single instruction or dimension Nvidia G80 hardware can be seen as 128/4 or 32 4D VEC4 Shaders but each of these 32 units can work parallel. That is how you end up with 128 Stream processors all the time. Nvidia's Shaders are so flexible so Nvidia can take as much units it wants and calculate as many dimensions in vector you like. It can always do 128 stream processor instructions per clock while ATI in worst case does 64 and in the best case can do even 320.



We will show a two examples


Let's add two 4D vectors and two 1D scalar information. ATI will do this in a single clock because it has one 4D and one 1D unit to spend. Nvidia will do this in a single clock but it will take 5 units from 128 possible while ATI used only 2 from 128 possible (64 4D + 64 1D).

ATI is theoretically faster but Nvidia has Shaders that runs at 1.35 GHz or some 60 percent faster than ATI's that runs at 800 MHz. This makes a situation much better for Nvidia. This example is very rare in the real games. Shaders very rarely use the operations with 4D vectors. Shaders usually works with 3D data such as 3D coordinate, 3D normal and 3D RGB channels without alpha. In some cases Shaders use 2D functions only eg 2D coordinate in texture or even 1D.

Example 2:

Let's add two 3D vectors, two 2D Vectors and one 1 D scalar. Nvidia again needs 5 Shaders or 2+2+1 units while ATI can not make this in a single clock. ATI needs a single clock to add two 3D vectors and at the same clock it can add the 1D scalar. However it needs a second clock to add 2 2D vectors. This means that ATI used 1+1 units in first and a single unit in second clocks, together it used three units in two clocks. As R600 Shaders are 60 percent slower than Nvidia's it means that R600 is two times slower than G80 in this particular example.

If you decide to make a Shader that will add eight 1D vectors Nvidia can take 8 units in a single clocks and ATI has to do in four clocks as it can use 1 4D and 1 1D unit per clock to finish this operation. In this case Nvidia can be four times faster and still finishes the calculation faster.

Even it looks really bad for ATI there is some hope for R600. You have to take in consideration that Microsoft HLSL (Higher Level Shader Language) compiler will do its small miracle and will try to optimize the Shader code. Compiler will try to "glue" a few scalars in a single VEC4 unit.



Compiler


We have a two scalar information's first called Fudo and second called JenHsun. The compiler will glue these two scalar values in a single 2D vector called "FudoJenHsun" and it will access Fudo scalar part as the FudoJenHsun.X and JenHsun part as FudoJenHsun.Y.

The good part is that all possible operations with a new variable 2D vector FudoJenHsun will run parallel as one 2D vector. This wont help Nvidia at all but it will really mean a lot for ATI.

Nvidia still has an advantage of having a full flexible scalar units while ATI doesn’t at least not that we or any of our sources knows of.

jp77
29-04-2007, 10:24
sempre da dailytech

Someone "reached out and touched us" today and gave us 2 Radeon XT cards for use in Crossfire and a different driver (350MB ?!?!). Expect benchmarks this week.

http://www.dailytech.com/article.aspx?newsid=7079&commentid=132926&threshhold=1&red=1213#comments

nuovi diver da 350Mb :eek:

appleroof
29-04-2007, 10:26
sempre da dailytech

Someone "reached out and touched us" today and gave us 2 Radeon XT cards for use in Crossfire and a different driver (350MB ?!?!). Expect benchmarks this week.

http://www.dailytech.com/article.aspx?newsid=7079&commentid=132926&threshhold=1&red=1213#comments

nuovi diver da 350Mb :eek:

Oste! 56k warning...:asd:

Dexther
29-04-2007, 10:33
One thing that concerns me is that many of our readers may think the 750 MHz core clock on the Radeon HD 2900 XTX, if it even comes to market, will be the final clock. I can almost guarantee you that if anyone decides to bring this to channel, the core clock will get a bump. Keep in mind that Sven managed to overclock the core to 845 MHz on the XT card.

In addition, I was quite pleased with the HD 2900 XT tests. I do believe when overclocked -- and this card seems to have a bit of headroom -- the card does well against the 8800 GTS and starts to encroach on the 8800 GTX territory. In our testing, it doesn't beat a GTX, but then again it won't be a $500 graphics card either. That task was reserved for the XTX and I think it’s quite obvious that increasing the memory size and frequencies on the R600 GPU won't usurp the 8800 GTX.

molto interessante :cool:

Marko91
29-04-2007, 10:35
Senza intenti polemici (ormai in questo tread bisogna specificarlo :asd: ), ma su che basi affermi questo?

Da un mia opinione sull'architettura di R600, che imho sarà molto efficiente con enormi quantità di shader complessi, presenti nei titoli DirectX10.
Inoltre dai rumor sembra che nel geometry shader, R600 avrà una bella marcia in più di G80.

appleroof
29-04-2007, 10:36
Da un mia opinione sull'architettura di R600, che imho sarà molto efficiente con enormi quantità di shader complessi, presenti nei titoli DirectX10.
Inoltre dai rumor sembra che nel geometry shader, R600 abbia una bella marcia in più di G80.

ah ok......;)

Gioman
29-04-2007, 10:38
Questi del dailytech sparano ca**ate a manetta.
Driver da 350 MB ? Ma nenche con 1.000 mila lingue.

Marko91
29-04-2007, 10:40
ah ok......;)

;)

Va beh, adesso aspettiamo i test con questi nuovi super-driver, e aspettiamo qualche miracolo in modalità Direcxt9 :D
Lol

Kharonte85
29-04-2007, 10:43
PS. credo che tu sia l'unico al mondo a credere a quel test :boh:
Non ho mai detto di crederci...ma cio' non toglie che non possano essere veri, dipende da come hanno preso quei valori...e i driver immaturi potrebbero spiegare benissimo il fatto che in un gioco vecchio vada peggio che in uno nuovo...;)

Interessantissimo l'articolo di fudzilla ( :what: ma c'è da fidarsi? )

appleroof
29-04-2007, 10:44
;)

Va beh, adesso aspettiamo i test con questi nuovi super-driver, e aspettiamo qualche miracolo in modalità Direcxt9 :D
Lol

Bè certo, anche io aspetto le rece definitive (in dx9 :rolleyes: ) così prendiamo tutti un pò di pace, in un modo o nell'altro :D

appleroof
29-04-2007, 10:45
Non ho mai detto di crederci...ma cio' non toglie che non possano essere veri, dipende da come hanno preso quei valori...e i driver immaturi potrebbero spiegare benissimo il fatto che in un gioco vecchio vada peggio che in uno nuovo...;)

Anche io credo che quei test siano veri, e sono d'accordo con te sui probabili motivi di quei risultati ;)

Kharonte85
29-04-2007, 10:52
Come si può notare, la HD2600 avrebbe 24 shader units Vec4+1 (120 equivalenti), ed un solo blocco di ROPs (quindi 4 o 5 ROPs, dal disegno non si capisce bene) e 2 di TMU. Inoltre la sua architettura ricalca esattamente quella delle HD2900 (a parte il bus, ovviamente), sebbene le shader units siano in 3 gruppi da 8 (al posto dei gruppi da 16 come nelle HD2900)

Solo 24 :eek: secondo me andra' poco piu' di una 8600gts...:doh:

gianni1879
29-04-2007, 10:54
Non ho mai detto di crederci...ma cio' non toglie che non possano essere veri, dipende da come hanno preso quei valori...e i driver immaturi potrebbero spiegare benissimo il fatto che in un gioco vecchio vada peggio che in uno nuovo...;)

Interessantissimo l'articolo di fudzilla ( :what: ma c'è da fidarsi? )

beh è quello che penso pure io, anche se i dati ovviamente non corrisponderanno a quelli finali dato l'uso di driver che non la supportano ancora e credo questa sia la maggior causa delle prestazioni scadenti, ragion per cui c'è da aspettarsi ottime prestazioni con driver ad hoc

appleroof
29-04-2007, 10:55
Solo 24 :eek: secondo me andra' poco piu' di una 8600gts...:doh:

In effetti considerando quei particolari shader e come vengono "spremuti" (da quello che ho capito finora) potrebbe essere così...ma come al solito aspettiamo prima di dire def. :(

GabrySP
29-04-2007, 11:23
Non ho mai detto di crederci...ma cio' non toglie che non possano essere veri, dipende da come hanno preso quei valori...e i driver immaturi potrebbero spiegare benissimo il fatto che in un gioco vecchio vada peggio che in uno nuovo...;)

Interessantissimo l'articolo di fudzilla ( :what: ma c'è da fidarsi? )

Anche io credo che quei test siano veri, e sono d'accordo con te sui probabili motivi di quei risultati ;)

Daccordissimo........ ma :

1) come spiegare i risultati della GTS con giochi "vecchiotti" ? (scarsissimi)
2) non si dice se la la gts è la 320 o la 640 (con tutti quei filtri la differenza è notevolissima in certi giochi, per esempio SS2 neanche parte a 1600x1200 con tutti quei filtri con una GTS 320)
3) Si parla di Adaptive AA, quando solo le schede ati lo hanno, le 8800 hanno il TAA
4) Per qualche strano motivo la GTS fa quasi sempre 40-50 fps (IMHO chi si è inventato questi risultati aveva poca fantasia)

Per questi (e altri) motivi trovo quel test assolutamente poco credibilie.

dj883u2
29-04-2007, 11:31
credo uscirà, per evitare una figuraccia galattica. resta da vedere il costo...a oltre 500/550 euro, credo che oggi come oggi non abbia senso acquistare schede di questa "generazione", che secondo me sarà sorpassata prima di settembre. ricordiamoci che la generazione è la stessa di G80, fuori da 7 mesi. credo quindi che entro 2-3 mesi nVidia annuncerà lo step successivo.
Porca miseria, già sai tutto!
Posta posta i test, che sono curioso di vedere questa figuraccia!....:muro: :muro:
Ciao;)

dj883u2
29-04-2007, 11:37
Io ribadisco il concetto ke se questa gpu fosse stata una bomba AMD avrebbe fatto in modo che si sapesse, vedi Intell con i Conroe ed ora con i Pheryn. Se invece la scheda è così così il tanto riserbo è legato a trattenere ulteriormente dall'acquisto gli utenti che vogliono prendersi una 8800gts.... :D
Ma che la prendessero pure la 8800gts o gtx!
Chi li trattiene?
I Pheryn una bomba!a me sa tanto di minestra riscaldata degli attuali processori.Vanno leggermente + veloci perchè hanno + Mhz, ma come ottimizzazioni siamo fermi all'attuale tecnologia,con la sola aggiunta di set di istruzioni SSE4,che sono sfruttate solo in pochissimi programmi.
Intel stà ripercorrendo la strada che aveva lasciato, ovvero aumentare solo i mhz senza ottimizzazioni.
Intel soffrirà parecchio l'uscita del K10!
Ciao;)

halduemilauno
29-04-2007, 11:42
Ma che la prendessero pure la 8800gts o gtx!
Chi li trattiene?
I Pheryn una bomba!a me sa tanto di minestra riscaldata degli attuali processori.Vanno + veloce perchè hanno + Mhz, ma come ottimizzazioni siamo fermi all'attuale tecnologia,con la sola aggiunta di set di istruzioni SSE4,che sono sfruttate solo in pochissimi programmi.
Intel stà ripercorrendo la strada che aveva lasciato, ovvero aumentare solo i mhz senza ottimizzazioni.
Intel soffrirà parecchio l'uscita del K10!
Ciao;)

Porca miseria, già sai tutto!
Posta posta i test, che sono curioso di vedere questa figuraccia!....:muro: :muro:
Ciao;)


;)

Kharonte85
29-04-2007, 11:44
Porca miseria, già sai tutto!
Posta posta i test, che sono curioso di vedere questa figuraccia!....
;)
Toh un déjà vu :what: :asd:
Daccordissimo........ ma :

1) come spiegare i risultati della GTS con giochi "vecchiotti" ? (scarsissimi)
2) non si dice se la la gts è la 320 o la 640 (con tutti quei filtri la differenza è notevolissima in certi giochi, per esempio SS2 neanche parte a 1600x1200 con tutti quei filtri con una GTS 320)
3) Si parla di Adaptive AA, quando solo le schede ati lo hanno, le 8800 hanno il TAA
4) Per qualche strano motivo la GTS fa quasi sempre 40-50 fps (IMHO chi si è inventato questi risultati aveva poca fantasia)

Per questi (e altri) motivi trovo quel test assolutamente poco credibilie.
Il punto 2 mi sembra ovvio che si parli della 640mb (la 320mb costa 300 euri) il resto non si sa...

A.L.M.
29-04-2007, 12:05
Interessantissimo l'articolo di fudzilla ( :what: ma c'è da fidarsi? )

Non saprei. Io sull'argomento parlo solo da appassionato, ma non sono un nè un esperto nè un ingegnere. Alcune cose però non mi sono chiare, tipo:

- una unità scalare di G80 come calcola i vettori? Dall'articolo di Fuad pare di capire che un vettore 4D, ad esempio, venga calcolato da 4 unità, in un unico clock, uno 2D da 2 ecc...
- e una unità Vec4? Teoricamente dovrebbe calcolare un vettore (sia esso a 2D,3D o 4D) in un solo clock, no?
- il compiler può anche combinare ad esempio 2 vettori 2D, oltre che 2 istruzioni scalari? :confused:

A me sembra che sia poi troppo pessimista nel momento in cui dice che nella peggiore delle ipotesi gli shader di R600 possono calcolare 64 istruzioni per clock. Pur nella mia ignoranza, mi sembra logico intuire che le situazioni in cui gli shader di R600 equivalgano a 64 di G80 siano davvero poche... dovrebbero esserci da fare solo 64 istruzioni scalari, ad esempio: se divenissero poi 128, in questo caso G80 ci impiegherebbe ancora un solo clock, mentre r600 2.
Però in tutti gli altri casi, cioè quando si vanno ad usare anche (e forse soprattutto) istruzioni vettoriali, il vantaggio di R600 diventerebbe considerevole, fino ad arrivare al caso limite (forse impossibile) in cui ci sono solo 64 istruzioni vettoriali a 4D e 64 scalari, che R600 riuscirebbe a completare in 1 clock, mentre G80 ci impiegherebbe 3 clock (2 per le istruzioni vettoriali e 1 per quelle scalari).
In tutti gli altri infiniti casi intermedi, la differenza tra le 2 architetture è ridotta rispetto a questi casi limite, credo.
A tutto questo ragionamento va però aggiunto che:
- G80 ha clocks degli stream processors molto più alti di R600 (rispetto alla XT siamo nell'ordine del 70%)
- la differenza suddetta tra le 2 architetture aumenta all'aumentare della complessità degli shaders, questo mi pare lo affermi anche Fudzilla, visto che all'aumentare della complessità delle istruzioni aumenta l'efficienza di R600: neanche a farlo apposta l'uso intensivo di shaders complessi è una delle innovazioni che verranno portate dalle DX10. ;)

Kharonte85
29-04-2007, 12:35
Forse in dx9 si avvicinano al caso peggiore (cioè 64SP)...e quindi l'architettura è molto sottosfruttata (questo spiegherebbe le prestazioni non eccelse viste sino ad ora)...

Peccato pero', si è persa l'occasione per avere una flessibilita' maggiore nella programmazione dei giochi...probabilmente vedremo casi di giochi in cui G80 andra' il doppio di r600 e viceversa...:rolleyes:

TecnoWorld8
29-04-2007, 12:35
Porca miseria, già sai tutto!
Posta posta i test, che sono curioso di vedere questa figuraccia!....:muro: :muro:
Ciao;)

inutile essere ironici. io ho atteso a cambiare scheda (non ho preso G80) per aspettare R600 e ora mi si prospetta un panorama in cui tale GPU andrà meno di G80 pur uscendo 7 mesi abbondanti dopo.

La figuraccia - almeno per me - consisterebbe già nel mettere sul mercato una scheda che vada (anche marginalmente) meno di un prodotto concorrente sul mercato da così tanto tempo, che presto sarà sostituito.

Se invece Voi siete soddisfatti da quanto si sta profilando...beh, beati voi.

drifter91
29-04-2007, 12:50
io dico solo una cosa aspettare per vedere!:D

davide155
29-04-2007, 13:04
Forse in dx9 si avvicinano al caso peggiore (cioè 64SP)...e quindi l'architettura è molto sottosfruttata (questo spiegherebbe le prestazioni non eccelse viste sino ad ora)...

Peccato pero', si è persa l'occasione per avere una flessibilita' maggiore nella programmazione dei giochi...probabilmente vedremo casi di giochi in cui G80 andra' il doppio di r600 e viceversa...:rolleyes:

Ti sei dimenticato di scrivere IMHO :)

Quello che hai detto è tutto da vedere

Robbysca976
29-04-2007, 13:09
inutile essere ironici. io ho atteso a cambiare scheda (non ho preso G80) per aspettare R600 e ora mi si prospetta un panorama in cui tale GPU andrà meno di G80 pur uscendo 7 mesi abbondanti dopo.

La figuraccia - almeno per me - consisterebbe già nel mettere sul mercato una scheda che vada (anche marginalmente) meno di un prodotto concorrente sul mercato da così tanto tempo, che presto sarà sostituito.

Se invece Voi siete soddisfatti da quanto si sta profilando...beh, beati voi.

Contestereri il "presto sarà sostituito"... :) Soprattutto se R600 sarà un flop

Kharonte85
29-04-2007, 13:15
Ti sei dimenticato di scrivere IMHO :)

Quello che hai detto è tutto da vedere
Credevo che il "forse" / "probabilmente" fossero buoni sinonimi...:mc:

Ovvio, tutto Secondo me. :)

TecnoWorld8
29-04-2007, 13:30
Contestereri il "presto sarà sostituito"... :) Soprattutto se R600 sarà un flop

nVidia ha sempre perseguito la propria roadmap, anche quando la concorrenza si era indebolita...dubito che lascerà passare ancora molti mesi, prima di presentare una variante a 65nm di G80. Dopotutto, in vista dei giochi pesanti, anche G80 inizierà ad essere in difficoltà alle risoluzioni più elevate.

L'unica cosa che cambierebbe se non ci fosse concorrenza, sarebbero - ahimè - i prezzi...

A.L.M.
29-04-2007, 13:32
Forse in dx9 si avvicinano al caso peggiore (cioè 64SP)...e quindi l'architettura è molto sottosfruttata (questo spiegherebbe le prestazioni non eccelse viste sino ad ora)...

Io non penso, credo che invece una bella fetta delle istruzioni impartite anche in DX9 siano comunque vettori (magari solo 2D e 3D), da quello che ho letto qualche volta: correggetemi se sbaglio.

davide155
29-04-2007, 13:33
Credevo che il "forse" / "probabilmente" fossero buoni sinonimi...:mc:

Ovvio, tutto Secondo me. :)

;)

Robbysca976
29-04-2007, 13:51
nVidia ha sempre perseguito la propria roadmap, anche quando la concorrenza si era indebolita...dubito che lascerà passare ancora molti mesi, prima di presentare una variante a 65nm di G80. Dopotutto, in vista dei giochi pesanti, anche G80 inizierà ad essere in difficoltà alle risoluzioni più elevate.

L'unica cosa che cambierebbe se non ci fosse concorrenza, sarebbero - ahimè - i prezzi...

Quindi quando sarebbe prevista la 8900?

TecnoWorld8
29-04-2007, 14:07
Quindi quando sarebbe prevista la 8900?

penso entro il 2007, probabilmente per l'autunno. ovviamente è IMHO, ma dato che seguo il settore da sempre, non è mai capitato che un prodotto rimanesse al top per più di un anno.

A.L.M.
29-04-2007, 14:09
Il parere di uno dei moderatori del forum SLIZone, forum ufficiale nVIDIA (quindi certamente non un fanboy ATi) su Rage3D a proposito dell'ultimo articolo di Fudzilla:

he makes a lot of mistakes and will only confuse people some more. I'd rather compare "FLOPS" than try to make these kinds of ridiculous comparisons.

http://rage3d.com/board/showpost.php?p=1334917316&postcount=67

skassa
29-04-2007, 14:59
Da un mia opinione sull'architettura di R600, che imho sarà molto efficiente con enormi quantità di shader complessi, presenti nei titoli DirectX10.
Inoltre dai rumor sembra che nel geometry shader, R600 avrà una bella marcia in più di G80.

Ho trovato questo sul forum di amd:

What did Crysis lead Developer (has the cards) say about the two (G80GTX and R600XT)?

And remember, Crysis is a DX9 game with an additional DirectX 10 codepath which will only help in getting better performance (gains) for the ones with DX10 cards.

28th April:I'm gonna spit out a very last detail ( before they get me behind the bars for disclosing information )

The 2900XTX is 4fps in front of the 8800GTX ( in average ) in Crysis ( information directly from a developer of the game )

The 2900XTX won't be the G80 killer that everybody was expecting, but it'll be in front in most cases, with little to good margins depending on the game and settings.

nVIDIA did a great job with the G80 this time, and the performance leap over the previous generation is huge and only compared to the R300 launch in the past

That's STOCK clocks guys, it can OC high.

http://forums.amd.com/forum/messageview.cfm?catid=12&threadid=68294&STARTPAGE=20&FTVAR_FORUMVIEWTMP=Linear

Sembra che la gtx 8800 regga il confronto con la xtx 2900 di ati anche in directx 10.

Athlon 64 3000+
29-04-2007, 15:20
Ho trovato questo sul forum di amd:

What did Crysis lead Developer (has the cards) say about the two (G80GTX and R600XT)?

And remember, Crysis is a DX9 game with an additional DirectX 10 codepath which will only help in getting better performance (gains) for the ones with DX10 cards.

28th April:I'm gonna spit out a very last detail ( before they get me behind the bars for disclosing information )

The 2900XTX is 4fps in front of the 8800GTX ( in average ) in Crysis ( information directly from a developer of the game )

The 2900XTX won't be the G80 killer that everybody was expecting, but it'll be in front in most cases, with little to good margins depending on the game and settings.

nVIDIA did a great job with the G80 this time, and the performance leap over the previous generation is huge and only compared to the R300 launch in the past

That's STOCK clocks guys, it can OC high.

http://forums.amd.com/forum/messageview.cfm?catid=12&threadid=68294&STARTPAGE=20&FTVAR_FORUMVIEWTMP=Linear

Sembra che la gtx 8800 regga il confronto con la xtx 2900 di ati anche in directx 10.

anche queste spiegazione le reputo tutte da vedere.
Fino a che non ci saranno le recensioni finali si faranno solo supposizioni e consiglio di parlare con il condizionale.

davide155
29-04-2007, 15:28
anche queste spiegazione le reputo tutte da vedere.
Fino a che non ci saranno le recensioni finali si faranno solo supposizioni e consiglio di parlare con il condizionale.

infatti.........

bluefrog
29-04-2007, 15:36
Ma soprattutto che adesso salta fuori che Crysis in dx10 è soltanto più veloce mi sembra una gran cavolata, dal momento che il CEO di Crytek non faceva altro che enfatizzare l'enorme differenza estetica a favore di chi possiede una scheda dx10. Staremo a vedere, e speriamo che sta XTX esca davvero. (scusate il piccolo OT)

skassa
29-04-2007, 16:32
anche queste spiegazione le reputo tutte da vedere.
Fino a che non ci saranno le recensioni finali si faranno solo supposizioni e consiglio di parlare con il condizionale.

Infatti io ho detto "SEMBRA" poi resta tutto da vedere.

dj883u2
29-04-2007, 16:43
inutile essere ironici. io ho atteso a cambiare scheda (non ho preso G80) per aspettare R600 e ora mi si prospetta un panorama in cui tale GPU andrà meno di G80 pur uscendo 7 mesi abbondanti dopo.

La figuraccia - almeno per me - consisterebbe già nel mettere sul mercato una scheda che vada (anche marginalmente) meno di un prodotto concorrente sul mercato da così tanto tempo, che presto sarà sostituito.

Se invece Voi siete soddisfatti da quanto si sta profilando...beh, beati voi.
Io penso che si stà facendo un chiacchierare inutile su un prodotto che non è uscito e che non è stato testato ufficialmente!
Quello che si vede in giro vale zero!Stiamo parlando di risultati che non sono ufficiali!
Poi tutti a dire di questo g80! Ma il G80 è una scheda dx10....ma voi l'avete mai vista girare con un gioco in dx10?Non sarà mica che al primo gioco "vero" dx10 il G80 sarà una bella delusione!
Uscita 7 mesi prima come prima dx10, e ad oggi non è stata mai usata come dx10......interessante!
A che pro tutto questo?
Quando ci saranno dati ufficiali allora ne parleremo se è una delusione o meno.
Comunque sei sempre in tempo x prendere un g80, nessuno te lo vieta, specialmente se sei sicuro che questo R600 sia una delusione.
Non aspettare ancora!
Ciao;)

davide155
29-04-2007, 17:03
Io penso che si stà facendo un chiacchierare inutile su un prodotto che non è uscito è che non è stato testato ufficialmente!
Quello che si vede in giro vale zero!Stiamo parlando di risultati che non sono ufficiali!
Poi tutti a dire di questo g80! Ma il G80 è una scheda dx10....ma voi l'avete mai vista girare con un gioco in dx10?Non sarà mica che al primo gioco "vero" dx10 il G80 sarà una bella delusione!
Uscita 7 mesi prima come prima dx10, e ad oggi non è stata mai usata come dx10......interessante!
A che pro tutto questo?
Quando ci saranno dati ufficiali allora ne parleremo se è una delusione o meno.
Comunque sei sempre in tempo x prendere un g80, nessuno te lo vieta, specialmente se sei sicuro che questo R600 sia una delusione.
Non aspettare ancora!
Ciao;)
Infatti........e basta con queste pippe mentali......
Nessuno sa come andrà r600, e quei pochi che sanno non possono dire nulla perchè c'è l'nda, quindi aspettiamo punto e basta.

HOLA ;)

A.L.M.
29-04-2007, 17:12
Tornando ai post un po' più "tecnici"...
Un utente abbastanza noto su Beyond3D, Jawed, ha postato la presunta struttura delle TMU di R600, che gli avrebbe inviato un suo conoscente. Ogni TMU (o meglio texturing engine o unit) di R600 è dunque formata da:



* 8x texture addressing units
* 20x FP32 samplers (single-data read/clock)
* 4x FP32 filtering units (1 bilinear 64 bit sample per clock or one 128 bit sample every 2 clocks)
* 256KB L2 cache

La cache L2 però non si capisce se sia comune o da moltiplicare x4...

Questi poi i commenti di Jawed:

8 TAs? single-clock fp16 filtered texels? Aha, so these are somewhat beefier than our old TMU friends. No specific clue as to whether it also does double-speed AF.

20x FP32s per clock? That must be for vertex fetch (point sampled, unfiltered, buffer fetch). Presumably good for 1D, 2D, or 3D? Optimised for 1D like in Xenos, though?

There was talk that R600 would "unify" vertex and texture fetches. Well this seems to be it, sort of. Except that there are prolly dedicated pipelines in the texturing engines for each type.

If you look closely at the functional overview diagram for R600 you can see 16 little boxes inside each TU. These might be the fp32 samplers. Well, 16 out of the 20, anyway. This would corresponding to fetching four 4xfp32 elements, half the maximum rate for D3D10 as I understand it (eight 4xfp32 streams are defined by D3D10). Obviously D3D10 doesn't define what the rate should be, but it does say that 8 streams should be supported.

---

Shader constants aren't handled in the way I was expecting (fetched on demand as a shader executes, cached as required in a similar way to textures). There's a cache for them, parallel to the instruction cache, which to me implies that constants are baked at the time instructions are issued.

I wonder what this means for the constant waterfalling problem and how R600 handles constant indices that are dynamic?...

Perhaps constants are split into two classes: easy constants with static (or no) index that are baked at instruction issue time, and bastards that are dynamically indexed requiring a fetch, potentially cached.

fukka75
29-04-2007, 19:56
Ma che la prendessero pure la 8800gts o gtx!
Chi li trattiene?
I Pheryn una bomba!a me sa tanto di minestra riscaldata degli attuali processori.Vanno leggermente + veloci perchè hanno + Mhz, ma come ottimizzazioni siamo fermi all'attuale tecnologia,con la sola aggiunta di set di istruzioni SSE4,che sono sfruttate solo in pochissimi programmi.
Intel stà ripercorrendo la strada che aveva lasciato, ovvero aumentare solo i mhz senza ottimizzazioni.
Intel soffrirà parecchio l'uscita del K10!
Ciao;)

:doh: Beh, una posizione molto interessante la tua: prima critichi chi, basandosi sui test apparsi finora, dice che R600 sarà un flop, e poi spari addirittura che K10 (di cui non si sa nulla) farà soffrire molto i nuovi Penryn (di cui non si sa nulla). Non c'è che dire, sei davvero coerente (o forse solo fanboy) :rolleyes:

dj883u2
29-04-2007, 20:04
:doh: Beh, una posizione molto interessante la tua: prima critichi chi, basandosi sui test apparsi finora, dice che R600 sarà un flop, e poi spari addirittura che K10 (di cui non si sa nulla) farà soffrire molto i nuovi Penryn (di cui non si sa nulla). Non c'è che dire, sei davvero coerente (o forse solo fanboy) :rolleyes:
E' una mia considerazione. Se vedi i test sul Penryn, "fatti dalla stessa Intel" riportati anche su questo sito,non puoi non dire che il Penryn altro non è che una leggerissima evoluzione rispetto agli attuali processori!
Non ho detto che Amd sarà superiore o altro.
Hai visto che fine ha fatto AMD quando, si è cullata avendo i procesori migliori, non puntando su un progetto nuovo....come invece ha fatto Intel?
Intel, non stà puntando sulle ottimizzazioni, ma sull'aumento di frequenza, è questo sappiamo tutti che non è la strada da percorrere!
Ciao;)

Marko91
29-04-2007, 20:38
Con hardware e driver migliori su DT hanno ottenuto risultati peggiori 2 giorni dopo. Non trovate sia interessante?

http://i12.tinypic.com/2py29hz.png

Kharonte85
29-04-2007, 20:51
Hanno usato 2 drivers diversi, FEAR e HL2 sono = oblivion fa il doppio (ma dipende dallo scenario scelto) N/A credo si riferisca al fatto che non funzioni (cmq vedendo i risultati della xtx si puo' presumere che avrebbe fatto = all'altro test) non vedo dove sia il problema? :boh:

gianni1879
29-04-2007, 21:05
Hanno usato 2 drivers diversi, FEAR e HL2 sono = oblivion fa il doppio (ma dipende dallo scenario scelto) N/A credo si riferisca al fatto che non funzioni (cmq vedendo i risultati della xtx si puo' presumere che avrebbe fatto = all'altro test) non vedo dove sia il problema? :boh:

mi anche strano che hl2 epis.one vado così male con qeuste sk, solitamente le Ati volano boh

Kharonte85
29-04-2007, 21:11
mi anche strano che hl2 epis.one vado così male con qeuste sk, solitamente le Ati volano boh
Forse Non ha piu' senso con queste architetture parlare di vantaggi (perlomeno non come erano prima)...e poi i driver saranno immaturi, cmq il test di HL2 è stato provato con queste impostazioni:

Half Life 2: Episode 1 - High model detail, high texture detail, high shader detail, reflect all water details, high shadow detail, 4x multi-sample AA (in-game), 16x anisotropic filtering, v-sync disabled, full high-dynamic range.

davide155
29-04-2007, 21:29
Con hardware e driver migliori su DT hanno ottenuto risultati peggiori 2 giorni dopo. Non trovate sia interessante?

http://i12.tinypic.com/2py29hz.png

Secondo me invece è tutta una presa per i fondelli.

Secondo me questi sono risultati campati per aria.
Non perchè r600 perde il confronto con g80, ma semplicemente perchè r600 è ancora sotto nda. Quindi se fossero veri i riportatori di tali test sarebbero già sotto querela da parte di ati. Invece guarda caso ati sta zitta......non vi viene in mente il perchè......no?:rolleyes:

A.L.M.
29-04-2007, 21:36
Altre interessantissime considerazioni sul forum di Beyond3D: Jawed cerca di analizzare l'efficienza di R600 mettendola a confronto con Xenos e R580...

I've been musing over the organisation of R600's ALU pipeline.

The diagram shows a fat yellow unit sitting beside 4 skinnier yellow units. It's worth noting that those skinny units are disjoint, they're not a single ALU.

The implication here is that R600 is capable of issuing five separate scalar instructions per clock, per pixel (or vertex or primitive).

So, I propose that the fatboy slug is a combined special function and MAD ALU and its weedy cousins are boring old MAD/MUL/ADD ALUs.

So, it's time to roll out my super-nasty code fragment, for one last time (?) :

http://www.cupidity.f9.co.uk/b3d83.jpg

Note, that's the revised version with a DP3 at the end, not a RCP as I did originally.

http://www.cupidity.f9.co.uk/b3d95.gif

R600 doesn't get much chance to stretch its legs on this code, because the instruction dependencies are tighter than a slug's arse. But you should be able to see a bit of instruction-component jiggery-pokery going on in cyles 3 and 4.

Note I've clocked the pipeline at 800MHz on the basis that in theory there'll be such a thing (whose peak capability is 512GFLOPs)...

For comparison, R580:

http://www.cupidity.f9.co.uk/b3d86.gif

And Xenos:

http://www.cupidity.f9.co.uk/b3d88.gif

Even though the FLOPs utilisation of R600 is only marginally higher than R580 (and it's the same as Xenos), you can see that the per-component utilisation is much higher. Summarising utilisation on the basis of components:

*R600 = 80%
*R580 = 52.5%
*Xenos = 70%

Jawed

Come ho evidenziato, Jawed ipotizza che le shader units di R600 siano Vec4 (MAD/MUL/ADD)+1 scalare MAD/Special Function (sulla falsa riga degli shaders di Xenos). Il quadratino blu che si vede in ogni shader dovrebbe essere il branching processor.

Sarebbe interessante capire come si comporterebbe G80 con un simile set di istruzioni.

Foglia Morta
29-04-2007, 22:49
http://img251.imageshack.us/img251/6121/superscalar1tg0.jpg
http://img47.imageshack.us/img47/1470/flopsiw6.jpg
http://img258.imageshack.us/img258/1290/ringbusii1fw7.jpg
http://img82.imageshack.us/img82/8557/tmu1xr8.jpg
http://img237.imageshack.us/img237/6893/tmu2jb5.jpg
http://img442.imageshack.us/img442/92/newjp2.jpg
http://img252.imageshack.us/img252/5633/cfaasa5.jpg

Foglia Morta
29-04-2007, 22:51
http://img252.imageshack.us/img252/6282/82756977ql4.jpg
http://img443.imageshack.us/img443/793/19796780be0.jpg
http://img455.imageshack.us/img455/7395/12842747rr2.jpg
http://img370.imageshack.us/img370/866/83809675nc3.jpg
http://img453.imageshack.us/img453/9275/21422560ju9.jpg
http://img403.imageshack.us/img403/2249/20919688is2.jpg

Marko91
29-04-2007, 23:14
Gli shader unit sono quindi vec5...

Free Gordon
29-04-2007, 23:41
Non saprei. Io sull'argomento parlo solo da appassionato, ma non sono un nè un esperto nè un ingegnere. Alcune cose però non mi sono chiare, tipo:


Ma siamo poi sicuri che le ALU di R600 siano Vec4+1? :D

Io sono quasi sicuro che non lo sono, dato che a questo punto sarebbero come quelle di Xenos (e non lo sono :D ).

Free Gordon
29-04-2007, 23:47
probabilmente vedremo casi di giochi in cui G80 andra' il doppio di r600 e viceversa...:rolleyes:


Il problema in sè poi, non sarebbe nemmeno quello...ma quello di sapere quale delle due architetture, scenda per prima sotto la soglia della giocabilità (30fps) (al di là della risoluzione utilizzata) nei giochi presenti e futuri. ;)

Da questo parametro potresti evincere quale delle due architetture è stata programmata in modo migliore. ;)

Il fatto che ci siano giochi dove l'una va il doppio dell'altra e viceversa (potenzialmente), non è necessariamente una discriminante per quanto mi riguarda.

Marko91
29-04-2007, 23:49
Ma siamo poi sicuri che le ALU di R600 siano Vec4+1? :D

Io sono quasi sicuro che non lo sono, dato che a questo punto sarebbero come quelle di Xenos (e non lo sono :D ).

Infatti non lo sono. Da quelle slide si vede chiaramente, sono ALU vec5D. (o almeno credo, le chiamano ALU superscalari)
E credo ci si possa fidare di quelle slide, hanno uno stile molto AMD... :D

LCol84
29-04-2007, 23:55
Infatti non lo sono. Da quelle slide si vede chiaramente, sono ALU vec5D.
E credo ci si possa fidare di quelle slide, hanno uno stile molto AMD... :D

E uno stile vec5D è migliore o peggiore di un 4+1?

Free Gordon
29-04-2007, 23:57
Ma soprattutto che adesso salta fuori che Crysis in dx10 è soltanto più veloce mi sembra una gran cavolata, dal momento che il CEO di Crytek non faceva altro che enfatizzare l'enorme differenza estetica a favore di chi possiede una scheda dx10. Staremo a vedere, e speriamo che sta XTX esca davvero. (scusate il piccolo OT)


Crysis è sempre stato un gioco DX9 con la patch per le 10.

Penso ci sarà la stessa differenza che c'è tra Far Cry 1.0 e Far Cry 1.3 (SM3.0)... :D

Marko91
29-04-2007, 23:57
Nuove slide e test ufficiali,
http://img255.imageshack.us/img255/1994/77402089ji6.jpg
http://img267.imageshack.us/img267/2358/59743691qs2.jpg
http://img184.imageshack.us/img184/9927/62566160pq0.jpg
http://img443.imageshack.us/img443/7294/66510766le0.jpg

A.L.M.
30-04-2007, 00:07
Ma siamo poi sicuri che le ALU di R600 siano Vec4+1? :D

Io sono quasi sicuro che non lo sono, dato che a questo punto sarebbero come quelle di Xenos (e non lo sono :D ).

Infatti non lo sono. Da quelle slide si vede chiaramente, sono ALU vec5D. (o almeno credo, le chiamano ALU superscalari)
E credo ci si possa fidare di quelle slide, hanno uno stile molto AMD... :D

Potrebbe essere, ma comunque rimane strano che le slide dell'architettura (che sembra sicuro, sono originali, visto che sono state riprese alcune parti anche in queste slides "marchiate") mostrino 4 processing units più piccole ed una più grande (oltre a quello che dovrebbe essere il branching processor della shading unit). Probabile a questo punto che si tratti di un Vec5D particolare, in cui uno dei componenti può all'occorrenza calcolare anche funzioni speciali (come fa il componente scalare delle shading unit di Xenos).

Il problema in sè poi, non sarebbe nemmeno quello...ma quello di sapere quale delle due architetture, scenda per prima sotto la soglia della giocabilità (30fps) (al di là della risoluzione utilizzata) nei giochi presenti e futuri. ;)

Da questo parametro potresti evincere quale delle due architetture è stata programmata in modo migliore. ;)

Il fatto che ci siano giochi dove l'una va il doppio dell'altra e viceversa (potenzialmente), non è necessariamente una discriminante per quanto mi riguarda.

Giusto. Io aggiungerei anche che è anche importante capire quale sia l'architettura più "scalabile", ossia quella che garantirà le prestazioni migliori in DX10 anche per la fascia media. ;)

Free Gordon
30-04-2007, 00:11
Infatti non lo sono. Da quelle slide si vede chiaramente, sono ALU vec5D. (o almeno credo, le chiamano ALU superscalari) E credo ci si possa fidare di quelle slide, hanno uno stile molto AMD... :D


Ho visto ora le slide. ^_^

Sono vec5D effettivamente. :D

Kharonte85
30-04-2007, 00:12
:eek: ammazza quanta robina interessante...domani leggo tutto, cmq a scovare le cose siete davvero bravi :D
Il problema in sè poi, non sarebbe nemmeno quello...ma quello di sapere quale delle due architetture, scenda per prima sotto la soglia della giocabilità (30fps) (al di là della risoluzione utilizzata) nei giochi presenti e futuri. ;)

Non sara' facile...:muro:

Marko91
30-04-2007, 00:14
I test però valgono messi così non servono a nulla.
Dovremmo dedurre che sistema hanno usato dai frames della x1950xtx per poter confrontare gli fps di R600 con G80...
:D

Free Gordon
30-04-2007, 00:15
E uno stile vec5D è migliore o peggiore di un 4+1?


Decisamente meglio vec5D. :)

LCol84
30-04-2007, 00:16
Decisamente meglio vec5D. :)

Come mai? che differenza sussite? :stordita: