PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 [18] 19 20 21 22 23 24 25 26 27 28 29 30 31

Kharonte85
30-04-2007, 00:16
I test però valgono messi così non servono a nulla.
Dovremmo dedurre che sistema hanno usato dai frames della x1950xtx per poter confrontare gli fps di R600 con G80...
:D
:doh:


:what: Gia' il fatto che non abbiano messo il confronto diretto mi puzza...

A.L.M.
30-04-2007, 00:25
Ho visto ora le slide. ^_^

Sono vec5D effettivamente. :D

:read:

Potrebbe essere, ma comunque rimane strano che le slide dell'architettura (che sembra sicuro, sono originali, visto che sono state riprese alcune parti anche in queste slides "marchiate") mostrino 4 processing units più piccole ed una più grande (oltre a quello che dovrebbe essere il branching processor della shading unit). Probabile a questo punto che si tratti di un Vec5D particolare, in cui uno dei componenti può all'occorrenza calcolare anche funzioni speciali (come fa il componente scalare delle shading unit di Xenos).

;)

http://img82.imageshack.us/img82/8557/tmu1xr8.jpg

Sicuramente l'architettura di R600 è molto più ardita tecnicamente di G80, a prescindere poi dalle prestazioni. Stanno facendo saltare tutti i concetti preesistenti, in pratica sarà pure difficile paragonarla con le altre vga (concorrenti e non)... :eek:
Le TMU hanno un numero variabile a seconda del componente, e qualcosa di simile dovrebbe esserci pure per le ROPs.

Free Gordon
30-04-2007, 00:27
I test però valgono messi così non servono a nulla.
Dovremmo dedurre che sistema hanno usato dai frames della x1950xtx per poter confrontare gli fps di R600 con G80...
:D



Mah, parlando di 2500x1600, la XT parrebbe un 60% più veloce della 1950XTX con le softshadow e dal 60 al 140% più veloce con l'HDR.

Sempre che ste slide siano davvero quelle di Tunisi.. :stordita:

Marko91
30-04-2007, 00:30
Le TMU hanno un numero variabile a seconda del componente, e qualcosa di simile dovrebbe esserci pure per le ROPs.

WoW! Praticamente hanno le TMU dinamiche e le ROPs dinamiche? Che figo! :D

Sorge un dubbio: perchè nn se magna g80? :stordita:

Free Gordon
30-04-2007, 00:33
Per quanto riguarda le 2600 invece, parrebbe che abbiano un tot di vantaggio sulle 8600 a livello di shader.
139Gflops per la 8600GTS, 192 per la 2600XT. Un 35% di differenza.

Free Gordon
30-04-2007, 00:37
Sicuramente l'architettura di R600 è molto più ardita tecnicamente di G80, a prescindere poi dalle prestazioni. Stanno facendo saltare tutti i concetti preesistenti, in pratica sarà pure difficile paragonarla con le altre vga (concorrenti e non)... :eek:
Le TMU hanno un numero variabile a seconda del componente, e qualcosa di simile dovrebbe esserci pure per le ROPs.



E' praticamente tutto differente. :cry:

Se non arriva Yoss quì, mi sa che non ci capirò più nulla... :sofico:

A.L.M.
30-04-2007, 00:40
WoW! Praticamente hanno le TMU dinamiche e le ROPs dinamiche? Che figo! :D

Beh, no. Semplicemente le componenti delle TMU e delle ROPs, che finora erano spesso state in numero uguale, credo (ossia una TMU conteneva una Texture Address Unit, un Texture Sampler ed una Texture Filter Unit), in R600 hanno un numero differente, tanto che in effetti risulta pure difficile chiamarle ancora ROPs e TMU, perchè sono abbastanza diverse dalle TMU e ROPs "classiche"... ;)

Mah, parlando di 2500x1600, la XT parrebbe un 60% più veloce della 1950XTX con le softshadow e dal 60 al 140% più veloce con l'HDR.

Sempre che ste slide siano davvero quelle di Tunisi.. :stordita:

Per quanto riguarda le prestazioni, mi pare che dai dati filtrati finora si possa desumere che:
- nei giochi DX9 non shader intensive sembra vada meglio di una 8800GTS;
- nei giochi DX9 shader intensive potrebbe andare più o meno come una GTX;
- nei giochi DX10 potrebbe avere prestazioni uguali o superiori ad una GTX.

Il tutto a causa (o per merito) della sua particolare architettura, che diventa sempre più efficiente all'aumentare della complessità delle istruzioni, visto che in realtà non dovrebbe essere "castrata" dalle TMU o dalle ROPs, che anzi potrebbero addirittura essere più efficienti di quelle di G80...

yossarian
30-04-2007, 00:49
Ho visto ora le slide. ^_^

Sono vec5D effettivamente. :D

no

in quelle slide, tra l'altro, c'è anche un errore: in R200 si ha 1 istruzione e 4 componenti (ovvero 4 flops), non 3. :D

Daytona
30-04-2007, 00:58
no

in quelle slide, tra l'altro, c'è anche un errore: in R200 si ha 1 istruzione e 4 componenti (ovvero 4 flops), non 3. :D

Mitico sei arrivato! :sofico:

...dicci cosa ne pensi da queste ultime ipotetiche caratteristiche di r600 ?! :)

1100000110100000

Mister Tarpone
30-04-2007, 01:01
Mitico sei arrivato! :sofico:

...dicci cosa ne pensi da queste ultime ipotetiche caratteristiche di r600 ?! :)

1100000110100000

e se può anche di rv630!! che m'interessa parecchio....... :)

A.L.M.
30-04-2007, 01:08
R600 TMU

http://img82.imageshack.us/img82/8557/tmu1xr8.jpg

G80 TMU

http://www.pcper.com/images/reviews/319/arch_05.jpg

Non capisco però una cosa: perchè R600 ha i texture samplers e G80 no? Fa tutto con le Texture Fetch unit? :confused:

Free Gordon
30-04-2007, 01:20
no
in quelle slide, tra l'altro, c'è anche un errore: in R200 si ha 1 istruzione e 4 componenti (ovvero 4 flops), non 3. :D



Vedi ALM, basta chiamarlo e lui arriva... :sofico:

Non sono Vec5D? :stordita:
Dai intanto il 2 è dopodomani, vuota il sacco sennò svegliamo un mod e ti facciamo bannare per istigazione alla masturbazione su false specifiche. :asd:

NvidiaMen
30-04-2007, 02:03
Presto qui ad hwu inizieranno una serie di commenti negativi circa delusioni sulle prestazioni dei primi esemplari di R600 in ambiente DX9 (http://www.dailytech.com/article.aspx?newsid=7052). Una situazione prevedibile data l'architettura certamente "più DX10" rispetto alle concorrenti schede nVidia e data la scarsa ottimizzazione dei drivers (che marcano assurdamente come una 2900xtx abbia prestazioni analoghe ad una 2900xt) in queste prime revisioni.
NM.

bladerunner86
30-04-2007, 08:33
quelle slide firmate amd sono ufficiali?

fireradeon
30-04-2007, 08:35
Presto qui ad hwu inizieranno una serie di commenti negativi circa delusioni sulle prestazioni dei primi esemplari di R600 in ambiente DX9 (http://www.dailytech.com/article.aspx?newsid=7052). Una situazione prevedibile data l'architettura certamente "più DX10" rispetto alle concorrenti schede nVidia e data la scarsa ottimizzazione dei drivers (che marcano assurdamente come una 2900xtx abbia prestazioni analoghe ad una 2900xt) in queste prime revisioni.
NM.

Concordo, però aggiungo una cosa: se hanno le stesse prestazioni di una 8800gtx e costano 400 euro io corro a prenderle perchè si tratta cmq di una ottima scheda ad un prezzo "stracciato" (400 invece di 550). Il fatto che siano uscite in ritardo gioca senz'altro a loro sfavore, ma se sapranno giocare sul prezzo senz'altro sapranno ritagliarsi la loro fetta di mercato.
Ovviamente non si sa nulla sul prezzo e quindi io ipotizzo dai rumors che costi 400 perchè se dovesse costare 450 o addirittura di più, a parità di prestazioni io passo a nvidia e addio ATI (con dispiacere, devo ammetterlo).

A.L.M.
30-04-2007, 08:35
quelle slide firmate amd sono ufficiali?

Al 99% sì, imho. ;)

bladerunner86
30-04-2007, 08:41
che cosa si capisce da quei dati? che prestazioni dovrebbero avere ?

A.L.M.
30-04-2007, 08:51
che cosa si capisce da quei dati? che prestazioni dovrebbero avere ?

Secondo me lo scenario sarà questo :read:

Per quanto riguarda le prestazioni, mi pare che dai dati filtrati finora si possa desumere che:
- nei giochi DX9 non shader intensive sembra vada meglio di una 8800GTS;
- nei giochi DX9 shader intensive potrebbe andare più o meno come una GTX;
- nei giochi DX10 potrebbe avere prestazioni uguali o superiori ad una GTX.

Il tutto a causa (o per merito) della sua particolare architettura, che diventa sempre più efficiente all'aumentare della complessità delle istruzioni, visto che in realtà non dovrebbe essere "castrata" dalle TMU o dalle ROPs, che anzi potrebbero addirittura essere più efficienti di quelle di G80...

In realtà infatti le Texture address units sono 32 come in G80, e le ROPs sembrerebbero 32 (contro 24 di G80), ma imho la porzione del render back-end dedicata all'antialiasing (secondo me quella in giallo) potrebbe addirittura essere composta da 64 elementi (16x4). Gli eventuali "problemi", ossia il fatto che nei giochi meno moderni per concezione possa andare meno di una 8800GTX (ma meglio di una GTS), credo che derivino solo dall'architettura scelta per gli shaders, che in certe situazioni è meno efficiente di quella del G80.

http://bbs.expreview.com/attachments/month_0704/20070428_deff9681f706dcab9a16HwlraKhteBqZ.jpg

halduemilauno
30-04-2007, 08:55
http://www.vr-zone.com/?i=4935
;)

A.L.M.
30-04-2007, 09:02
Sfilza di articoli by Fudzilla... :asd:

Qui in pratica si rimangia parte delle cose che aveva scritto nell'unico articolo tecnico della sua vita... :D

320 SPs up to 40 percent faster than G80 (theory)

Until today we believed that R600 is a Vec4+1 Scalar chip which sounded very inefficient to us. We had a chance to take a peak in some DAAMIT documents and learned that ATI wants to present R600 as a superscalar ship with 5 instructions per clock.


The previous ATI's hardware including Radeon 9600, 9700, 9800 and X series could handle two instructions per clock with 3+1 or 4+1 components.

Radeon HD 2000 series supports Superscalar marchitecture and it means that with Vec5 or Superscalar ATI can process 5 scalar instructions per clock. It has a 64 Unified Shaders and adding these two numbers you end up with amazing number of 320 Stream processors.

Nvidia G80 GTX can handle only Vec4 instruction on a scalable way or four independent instructions and it looks like ATI might have an advantage here. Nvidia can process 128 Stream processor instructions but at much higher clock, 1.35 GHz while R600 can do 320 Stream instructions per clock but at half of speed or 750 MHz clock. In raw match G80 at GTX clocks can handle 172.800 Millions or instructions or Shaders if you like while R600 can handle 240.000 Millions or Shaders per clock.

If this turns to be right ATI could run Shader instructions especially the unified ones up to forty percent faster. Well this will show of in next generation games and benchmarks only so you still have some time to way for this revolution.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=743&Itemid=34

DirectX 10 suits it, but DX9 not so much

We heard more than once that Radeon HD 2900 marchitecture is more suitable for the DirectX 10 content then it is for the current stuff. The biggest problem for ATI is that there is no a single DirectX 10 game or benchmark out and the way things are going it will take till autumn until you see one.

The biggest problem today is that you have to convince the guys to buy the cards today not in the future as in late Autumn ATI will already have R650 card to fight the upcoming G90 part.

R600 Shader design is meant for DirectX 10 but what can you do as there is no a single game out. The only hope for DAAMIT today is Microsoft flight simulator 10, the DirectX 10 version as these guys have beta at this time.The big ones including Crysis and Unreal Tournament 2007 (might be renamed to 2008) are still delayed for at least Autumn.

R600 is really caught in the Catch 22 situation as Geforce 8800 series ends up faster in most of the today's games and R600 has a big chance to be faster in the future content. The only thing we can say to all of that is DAAMIT.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=741&Itemid=34

Qui invece quasi sicuramente (almeno, se sono vere le slides che abbiamo visto sull'architettura) sbaglia il numero di TMU e ROPs per RV630 (errore che aveva fatto anche per la 8600... :rolleyes: ): RV630 dovrebbe avere invece 16 TMU e 8 ROPs (e forse 16 unità per l'AA).

A flexible marchitecture

RV630 won't simply be the half of the R600 chip. This chip won't have 32 Unified Shaders as that would be the half of R600 and it will end up with 24 of them. At the same time it will have 8 Texture memory Units, 24 Arithmetical logical Units and 4 ROPs (Raster Operation Units).


The limiting factor is certainly the 128 bit memory interface but ATI just follows Nvidia and it wanted to make the chip more affordable and smaller. The worst thing is that RV630, Radeon HD 2600 series is delayed till late June.

From what we know today it should end up faster then the G84, Geforce 8600 GTS cards

http://www.fudzilla.com/index.php?option=com_content&task=view&id=740&Itemid=1

GabrySP
30-04-2007, 09:16
http://img91.imageshack.us/img91/3149/cfaaou0.jpg (http://imageshack.us)

Forse quella frase è l'unica speranza di avere giochi con AA in futuro :sperem:
(per chi non lo sapesse il oltre il 90% dei giochi futuri non supporta l'AA :eek: )

Se quell'indicazione non è una "sboronata" e non indica una banale compatibilità con un Adaptive (o transparency) AA la possibilità di avere AA con il "Deferred Shading" può essere concreta. (vedi Stalker, Vegas, GRAW e tutti i giochi che useranno l'UE3)

Se questa cosa sarà vera solo un "utonto" sceglierà una scheda nVidia (ho una GTX che sarà venduta all'istante in caso di notizie favorevoli)

A quel punto prestazioni e consumi andrebbero decisamente in secondo piano, perchè giocare senza AA nel 2007 è una cosa da pazzi (è da i tempi di Nascar Racing su il fido 486 DX4 che non tolgo l'AA :cool: )

PS. qualcuno sa se si possa montare l'HR-03 plus sulla HD 2900XT ? perchè dalle foto la GPU mi sembra montata troppo vicina alla staffa e c'è il rischio che il dissi ci vada a sbattere contro :mad: (peccato perchè i "fori" sul pcb sembrano essere identici a quelli ddell 8800 :muro: )

Hal2001
30-04-2007, 09:19
(per chi non lo sapesse il oltre il 90% dei giochi futuri non supporta l'AA :eek: )

:confused:

bladerunner86
30-04-2007, 09:23
queste slide mostrano tutto eccetto il prezzo!!! seconodo sarà confermato il prezzo dei rumor ossia 399 $ o 380 euro

A.L.M.
30-04-2007, 09:24
http://img91.imageshack.us/img91/3149/cfaaou0.jpg (http://imageshack.us)

Forse quella frase è l'unica speranza di avere giochi con AA in futuro :sperem:
(per chi non lo sapesse il oltre il 90% dei giochi futuri non supporta l'AA :eek: )

Se quell'indicazione non è una "sboronata" e non indica una banale compatibilità con un Adaptive (o transparency) AA la possibilità di avere AA con il "Deferred Shading" può essere concreta. (vedi Stalker, Vegas, GRAW e tutti i giochi che useranno l'UE3)

Potresti spiegare meglio questa cosa? :stordita: :fagiano:

Athlon 64 3000+
30-04-2007, 09:26
http://img91.imageshack.us/img91/3149/cfaaou0.jpg (http://imageshack.us)

Forse quella frase è l'unica speranza di avere giochi con AA in futuro :sperem:
(per chi non lo sapesse il oltre il 90% dei giochi futuri non supporta l'AA :eek: )

Se quell'indicazione non è una "sboronata" e non indica una banale compatibilità con un Adaptive (o transparency) AA la possibilità di avere AA con il "Deferred Shading" può essere concreta. (vedi Stalker, Vegas, GRAW e tutti i giochi che useranno l'UE3)

Se questa cosa sarà vera solo un "utonto" sceglierà una scheda nVidia (ho una GTX che sarà venduta all'istante in caso di notizie favorevoli)

A quel punto prestazioni e consumi andrebbero decisamente in secondo piano, perchè giocare senza AA nel 2007 è una cosa da pazzi (è da i tempi di Nascar Racing su il fido 486 DX4 che non tolgo l'AA :cool: )

PS. qualcuno sa se si possa montare l'HR-03 plus sulla HD 2900XT ? perchè dalle foto la GPU mi sembra montata troppo vicina alla staffa e c'è il rischio che il dissi ci vada a sbattere contro :mad: (peccato perchè i "fori" sul pcb sembrano essere identici a quelli ddell 8800 :muro: )

Se fosse vero che il nuovo AA di R600 si potrà usare con i giochi tipo GRAW e Stalket sarebbe secondo me un ottimo vantaggio nei confronti delle 8800.

Skullcrusher
30-04-2007, 09:27
Se fosse vero che il nuovo AA di R600 si potrà usare con i giochi tipo GRAW e Stalket sarebbe secondo me un ottimo vantaggio nei confronti delle 8800.

Decisamente sì, dato che in molti ( me compreso ) non riescono a rinunciare all'AA....:p

GabrySP
30-04-2007, 09:28
:confused:

Non si può postare con sole "faccette" ;)

E' la triste realtà, prima di mettere "faccette" sarebbe meglio fare qualche ricerca per informarsi un po' :D

Vai su google e scrivi "deferred shading anti aliasing" e clicca sui primi link che escono. :doh:

http://www.anandtech.com/video/showdoc.aspx?i=2947
http://www.anandtech.com/video/showdoc.aspx?i=2947&p=2
ecc


Poi magari posta con dei commenti più costruttivi. [niente di personale ma qui si prendono sospensioni di 10 giorni come ridere ;) ]

bladerunner86
30-04-2007, 09:36
ma quando dovrebbero uscire i demo dei primi giohi directx 10?

A.L.M.
30-04-2007, 09:42
ma quando dovrebbero uscire i demo dei primi giohi directx 10?

A fine maggio probabilmente potrebbe uscire la demo di Lost Planet, tra maggio e giugno poi usciranno le patch DX10 per alcuni giochi (Call of Juarez, Company of Heroes, forse Flight Simulator X). Di Crysis avevo letto che potrebbe uscire una versione beta con numero di licenze limitato (come per Test Drive Unlimited) già a giugno. :boh:

Athlon 64 3000+
30-04-2007, 09:42
Decisamente sì, dato che in molti ( me compreso ) non riescono a rinunciare all'AA....:p

Io con la X1900XT mi sono abituato a giocare in tutti i giochi con aa 4x sia a 1280x1024 che a 1024x768 e giocare a dei giochi come GRAW che non posso usare l'AA di tipo classico mi rode,sapere che forse e dico forse con R600 si potrà usare l'aa con questo tipo di giochi per me un vantaggio di R600 rispetto a G80.
con la HD 2900XT userò sempre l'AA 6x visto il bus a 512 bit.

Defragg
30-04-2007, 09:43
:confused:

parla, con termini (credo) volutamente esagerati, dell'UE3 che stà spopolando

GabrySP
30-04-2007, 09:43
Se fosse vero che il nuovo AA di R600 si potrà usare con i giochi tipo GRAW e Stalket sarebbe secondo me un ottimo vantaggio nei confronti delle 8800.

Molto vero.

Decisamente sì, dato che in molti ( me compreso ) non riescono a rinunciare all'AA....:p


La pensiamo allo stesso modo, e sinceramente l'uso spropositato che si farà dell'UE3 mi spaventa moltissimo (già vedere un capolavoro come STALKER rovinato dalla mancanza di AA mi fa impazzire :incazzed: )

L'unica cosa da fare è questa : :tie: e sperare che quelli di AMD si siano inventati qualcosa di veramente valido.
Dalle slide semprerebbe un banale MSAA con dei campioni in più presi dai pixel vicini (almeno a me sebra così :hic: ) ma spero che quella frase indichi qualcosa di serio :boh: (spesso nelle presentazioni si fanno delle sparate che non sono poi così vere :( )

Io comunque ci spero perchè se quella frase indicasse una compatibilità con l'AAA (che effetivamente non lavora sugli "spigoli") sarebbe una slide bugiarda perchè anche anche il CSAA e gli altri tipi di AA sulle 8800 lavorano tranquillamente insieme all'AAA (che si chiame TAA sulle nVidia :confused: )


parla, con termini (credo) volutamente esagerati, dell'UE3 che stà spopolando


di esagerato non c'è nulla visto che sono i dati ufficiali dei giochi in attuale lavorazione, ed il fatto che l'UE3 sarà il motore più utilizzato farà si che quella percentuale aumenterà ancora :(
IMHO l'AA nel 2007 è d'obbligo ( e la storia che molti raccontano che con risoluzioni, tipo dalla 1920x1200 in su, l'AA sia inutile è una leggenda metropolitana inventata da chi non ha mai visto un monitor del genere, dato che i "gradini" sono uguali a quelli che si hanno 17" 1280x1024, ce ne sono semplicemente di più :doh: )

gianni1879
30-04-2007, 09:49
questa dei futuri giochi che non posssono utilizzare AA sarebbe una grossa mancanza (non ricordo se in GRAW si poteva mettere lo devo reinstallare per continualo), se R600 & co. si potesse sopperire a questa mancanza sarebbe davvero notevole ;)

yossarian
30-04-2007, 10:00
Mitico sei arrivato! :sofico:

...dicci cosa ne pensi da queste ultime ipotetiche caratteristiche di r600 ?! :)

1100000110100000

guardando quelle slide, la prima considerazione è che, come era prevedibile, si sono dette un mucchio di scemenze sull'architettura dello shader core (non mi riferisco agli interventi di chi scrive sul forum, che si è limitato a riportare rumor o presunte indiscrezioni, e sottolineo il presunte) e qualcuno sta già ritrattando, sembra :D

Un'architettura superscalare non presenta le limitazioni ventilate da qualcuno: una vect4+scalar può processare due istruzioni per ciclo, una vect5 solo una, una superscalare come quella di r600, invece, 5 istruzioni per ciclo (ovvero una istruzione per cilo per ogni alu scalare, esattamente come G80); questo significa che è più semplice un confronto con lo shader core di G80, anch'esso di tipo superscalare.
Rispondendo ad un post di qualche mese fa, avevo iniziato ad accennare al fatto che le alu di R600 erano organizzate su più livelli rispetto a quelle di G80 (un po' come accade tra R5x0 e G7x). Questo implica una logica più complessa che richiede più cicli di clock. La conseguenza è che nel calcolo di shader semplici, un'architettura meno complessa dal punto di vista dell'organizzazione delle unità di calcolo è più veloce; con gli shader più complessi, al contrario, la migliore organizzazione di un'architettura complessa permette risultati migliori: questo perchè un'architettura complessa esegue, in ogni caso, una serie di operazioni che per shader semplici si rivelano superflue, facendo perdere cicli di clock; al contrario, con shader complessi, proprio quelle operazioni in più permettono alle alu di essere meglio organizzate sul lavoro da eseguire. Si tratta semplicemente di due differenti filosofie costruttive.
In G80 si ha un'organizzazione di tipo 8-4-4, ovvero, un dato in ingresso vede 8 blocchi da 4 gruppi di 4 alu scalari ciascuno; R600 ha un'organizzazione che si potrebbe schematizzare con 4-4-4-5. In ogni caso, entrambi gli shader core sono di tipo superscalare, quindi G80 potrà processare 256 flops per ciclo (più la mul "fantasma" che darebbe altre 128 flops) e ha il vantaggio della maggior frequenza operativa; R600 potrà processare 640 flops per ciclo.
Sulle tmu il discorso è più complesso, perchè entrambi i chip possono indirizzare lo stesso numero di texture per ciclo (e qui è in vantaggio R600 perchè le tmu hanno una frequenza operativa maggiore); G80 dovrebbe avere qualche vantaggio nelle operazioni di texture filtering, invece.
Il bus di R600 è, al contrario di quello di R5x0, un vero e proprio ring, come quello del cell (in R5x0) i dati viaggiano su un anello, mentre le richieste di accesso utilizzano un'architettura di tipo crossbar, quindi di fatto è un ibrido); la struttura ad anello permette di rendere più efficiente la fase di inoltro delle richieste di accesso alla ram, rendendo il mc disponibile per altre operazioni, teoricamente, dopo un solo ciclo (contro i 2 del bus del bus di R5x0 e i 4 del crossbar); questo dovrebbe rendere molto più efficiente l'accesso alla vram da parte delle unità di calcolo.

Raven
30-04-2007, 10:02
... in Stalker l'AA funziona (togliendo l'illuminazione dinamica HDR)...

GabrySP
30-04-2007, 10:06
... in Stalker l'AA funziona (togliendo l'illuminazione dinamica HDR)...

Certo perchè così giochi con il path DX8. :D (e con una grafica da Call of Duty, il primo ;) )

Sarebbe interessante un commento del Yoss su questo fatto, anche se da quelle due slide è evidente che non si possa capire nulla di concreto.

Raven
30-04-2007, 10:14
Certo perchè così giochi con il path DX8. :D (e con una grafica da Call of Duty, il primo ;) )


OK... ;) Ma onestamente non so quanto sarebbe gestibile una grafica con HDR+AA... con la mia x1950pro sono quasi "al limite" se uso una (AA 4x a 1280x960) o l'altra (HDR sempre a 1280x960) opzione... quindi tanto vale...

A.L.M.
30-04-2007, 10:18
In G80 si ha un'organizzazione di tipo 8-4-4, ovvero, un dato in ingresso vede 8 blocchi da 4 gruppi di 4 alu scalari ciascuno; R600 ha un'organizzazione che si potrebbe schematizzare con 4-4-4-5. In ogni caso, entrambi gli shader core sono di tipo superscalare, quindi G80 potrà processare 256 flops per ciclo (più la mul "fantasma" che darebbe altre 128 flops) e ha il vantaggio della maggior frequenza operativa; R600 potrà processare 640 flops per ciclo.

E invece riguardo al fatto che una delle 5 alu è più grande nel disegno dell'architettura? Non è che una ha anche il compito di calcolare funzioni speciali, come ipotizzava qualcuno sul forum di Beyond3D?

Sulle tmu il discorso è più complesso, perchè entrambi i chip possono indirizzare lo stesso numero di texture per ciclo (e qui è in vantaggio R600 perchè le tmu hanno una frequenza operativa maggiore); G80 dovrebbe avere qualche vantaggio nelle operazioni di texture filtering, invece.

Un paio di domande:
- ma in G80 dove sono i texture samplers? Sono comunque le texture fetch units a svolgere il loro compito?
- comunque su questa slide...

http://img82.imageshack.us/img82/8557/tmu1xr8.jpg

...vengono citate pure le prestazioni: e mi pare di capire che le 16 filter units abbiano le stesse prestazioni delle 64 di G80, o mi sbaglio? Anche G80 riesce a fare il bilinear filter a 64bit di un color value per clock... :stordita:

Pat77
30-04-2007, 10:40
Un vantaggio sull'applicazione dell'AA vi è pure ora con x1800/1900 rispetto a 7800-7900, potrebbe essere anche in questo giro un marchio di fabbrica ;)
L'idea che mi sono fatto è quello di un'architettura proiettata al futuro e che necessiterà di diversi mesi per vedere concretamente quanto vale.
Io aspetto qualche riscontro numerico di x2600xt per avere un'idea più precisa sul da farsi.

Tenebra
30-04-2007, 10:45
Io aspetto qualche riscontro numerico di x2600xt per avere un'idea più precisa sul da farsi.

Eh, mi sa che siamo in tanti ad aspettare quello :D

Ma se queste slide vengono confermate, con le implicazioni in esse contenute (ovvero migliore prestazione dell'architettura di R6x0 con shader complessi, ovvero con tutti i giochi futuri) anche se Hd2600xt andasse solo come una 8600gts - e quindi prestazione deludente - sarebbe da preferire, a parità di prezzo, alla scheda Nvidia in ottica di durata nel tempo già da ora...

fukka75
30-04-2007, 10:47
Certamente però tale vantaggio è stato sfruttato ben poco dall'industria dei vg (quanti sono i vg che consetnono di abilitare ingame AA+HDR senza dover fare magheggi con utility esterne?), mi auguro che stavola le cose cambino davvero, anche perché qui non si tratta più di scegliere tra HDR o AA, ma di scegliere solo HDR senza possibilità di AA (almeno stando ai giochi attuali). Se sarà davvero un supporto reale ad AA con HDR def-shad, sarebbe davvero un bel colpo per ATI, considerando la pletora di giochi con UE3 previsti per quest anno e, sicuramente per quelli a venire. Certo poi bisognerà vedere che impatto avrà tale eventuale "accoppiata" sulle prestazioni della scheda, perché alla fine se dovesse significare giocare in slow-mo, saremmo da capo a dodici

A.L.M.
30-04-2007, 10:48
Hardspell.com ha pubblicato una preview sulla tecnologia UVD delle HD 2000...

http://www.hardspell.com/doc/hardware/36904_page18123.html

HD2400 con ventola

http://img257.imageshack.us/img257/2756/hd2400fanhdmioc8.th.jpg (http://img257.imageshack.us/my.php?image=hd2400fanhdmioc8.jpg)

HD2400 con dissi passivo

http://img185.imageshack.us/img185/3569/hd2400passivehdmiba6.th.jpg (http://img185.imageshack.us/my.php?image=hd2400passivehdmiba6.jpg)

HD2600 (Pro?)

http://img148.imageshack.us/img148/8431/hd2600prohdmiih3.th.jpg (http://img148.imageshack.us/my.php?image=hd2600prohdmiih3.jpg)

HD2600XT

http://img185.imageshack.us/img185/4104/hd2600xthdmidh3.th.jpg (http://img185.imageshack.us/my.php?image=hd2600xthdmidh3.jpg)

HD2900

http://img292.imageshack.us/img292/6682/hd2900hdmikt2.th.jpg (http://img292.imageshack.us/my.php?image=hd2900hdmikt2.jpg)

A.L.M.
30-04-2007, 10:52
Un vantaggio sull'applicazione dell'AA vi è pure ora con x1800/1900 rispetto a 7800-7900, potrebbe essere anche in questo giro un marchio di fabbrica ;)
L'idea che mi sono fatto è quello di un'architettura proiettata al futuro e che necessiterà di diversi mesi per vedere concretamente quanto vale.
Io aspetto qualche riscontro numerico di x2600xt per avere un'idea più precisa sul da farsi.

Eh, mi sa che siamo in tanti ad aspettare quello :D

Ma se queste slide vengono confermate, con le implicazioni in esse contenute (ovvero migliore prestazione dell'architettura di R6x0 con shader complessi, ovvero con tutti i giochi futuri) anche se Hd2600xt andasse solo come una 8600gts - e quindi prestazione deludente - sarebbe da preferire, a parità di prezzo, alla scheda Nvidia in ottica di durata nel tempo già da ora...

Purtroppo le HD2600 si potrebbero vedere solo a giugno, secondo alcuni (Fudzilla): sembra che ci siano stati problemi nei samples di pre-produzione... :confused:

Pat77
30-04-2007, 10:53
Andasse come la gts sarebbe un downgrade da x1900 (la scheda che ho) quindi mi aspetto che sia superiore per valutarne l'acquisto, anche perchè io gioco a oblivion principalmente che delle dx10 si fa poco.
C'è da dire che le GTS proprio in oblivion volano, quindi la valutazione si fa ancor più complessa, l'ideale sarebbe vedere qualcosa dx10.

Tenebra
30-04-2007, 10:57
Purtroppo le HD2600 si potrebbero vedere solo a giugno, secondo alcuni (Fudzilla): sembra che ci siano stati problemi nei samples di pre-produzione... :confused:

Vabbè, per vedere la fiducia che ho di Fudzilla servirebbe un microscopio elettronico :D ma a parte tutto, personalmente preferirei aspettare un mese ed avere una scheda migliore, che correre ed infognarmi in una scheda che è ferma, prestazionalmente parlando, anche rispetto alle medie dx9.

Certo, prima esce meglio è... sperando che capiscano che se esce fra un mese non la possono più proporre a 199 euro, dato che nel frattempoo la 8600gts sarà scesa.

A.L.M.
30-04-2007, 10:58
Andasse come la gts sarebbe un downgrade da x1900 (la scheda che ho) quindi mi aspetto che sia superiore per valutarne l'acquisto, anche perchè io gioco a oblivion principalmente che delle dx10 si fa poco.
C'è da dire che le GTS proprio in oblivion volano, quindi la valutazione si fa ancor più complessa, l'ideale sarebbe vedere qualcosa dx10.

Secondo alcuni rumors (confermati anche dallo pseudo test comparativo con infernal fatto su questo thread) le HD2600 XT dovrebbero avere prestazioni migliori di una X1950Pro (e leggermente inferiori ad una X1900XT). ;)

yossarian
30-04-2007, 11:00
E invece riguardo al fatto che una delle 5 alu è più grande nel disegno dell'architettura? Non è che una ha anche il compito di calcolare funzioni speciali, come ipotizzava qualcuno sul forum di Beyond3D?



in quelle slide, ho l'impressione che si cercasse di evidenziare l'architettura 4+1 ipotizzata, più che far risaltare la differenza di tipologia di alu (tra le 4 del presunto vect4 e la scalare).



Un paio di domande:
- ma in G80 dove sono i texture samplers? Sono comunque le texture fetch units a svolgere il loro compito?
- comunque su questa slide...



a volte gli schemi a blocchi possono essere fuorvianti perchè poco accurate; anche G80 deve poter fare texture sampling (anche perchè altrimenti non potrebbe applicare filtri :D )




...vengono citate pure le prestazioni: e mi pare di capire che le 16 filter units abbiano le stesse prestazioni delle 64 di G80, o mi sbaglio? Anche G80 riesce a fare il bilinear filter a 64bit di un color value per clock... :stordita:

non ho a disposizione il dato di cui parli; G80 può fare trilinear in un solo ciclo

Dati precisi li avrete all'uscita del chip, una volta fatta un'analisi con bench sintetici tipo shadermark, archmark e Marco Dolenc's fillrate test

A.L.M.
30-04-2007, 11:01
Vabbè, per vedere la fiducia che ho di Fudzilla servirebbe un microscopio elettronico :D ma a parte tutto, personalmente preferirei aspettare un mese ed avere una scheda migliore, che correre ed infognarmi in una scheda che è ferma, prestazionalmente parlando, anche rispetto alle medie dx9.

Certo, prima esce meglio è... sperando che capiscano che se esce fra un mese non la possono più proporre a 199 euro, dato che nel frattempoo la 8600gts sarà scesa.

In effetti quello potrebbe essere un problema, perchè pare che la nVIDIA sia già corsa ai ripari per ovviare al fatto che le 8600 stiano vendendo poco e abbasserà i prezzi.

nitroin
30-04-2007, 11:02
Ciao a tutti, mi intrometti in questo topic gigantesco...

Volevo avere qualche informazione/delucidazione sull'articolo di qualche pagina fa:

http://www.anandtech.com/video/showdoc.aspx?i=2947&p=4


Ho letto di sfuggita, ma mi pare il problema si presenti per i giochi attuali e sia risolvibile per i giochi futuri, se qualcuno può spiegare meglio...

A.L.M.
30-04-2007, 11:04
non ho a disposizione il dato di cui parli; G80 può fare trilinear in un solo ciclo

Dati precisi li avrete all'uscita del chip, una volta fatta un'analisi con bench sintetici tipo shadermark, archmark e Marco Dolenc's fillrate test

http://www.pcper.com/article.php?aid=319&type=expert&pid=4

http://www.pcper.com/images/reviews/319/arch_06.jpg

Da qui sembrerebbe che le prestazioni siano le stesse... :stordita:

Grazie ancora per le risposte. ;)

Pat77
30-04-2007, 11:08
Secondo alcuni rumors (confermati anche dallo pseudo test comparativo con infernal fatto su questo thread) le HD2600 XT dovrebbero avere prestazioni migliori di una X1950Pro (e leggermente inferiori ad una X1900XT). ;)

Sarebbe l'ideale, speriamo ;) con in più il supporto a dx10 direi che i presupposti, se veri, si fanno ottimi.

Foglia Morta
30-04-2007, 11:10
Dati precisi li avrete all'uscita del chip, una volta fatta un'analisi con bench sintetici tipo shadermark, archmark e Marco Dolenc's fillrate test

test che possano chiarire le prestazioni in DX 10 quali potrebbero essere ?

+Lonewolf+
30-04-2007, 11:10
2 domande dato che torno ora dalla vacanza...

1) allora 14 oppure 2 maggio?

2) prezzo di lancio?

Kharonte85
30-04-2007, 11:17
http://www.pcper.com/article.php?aid=319&type=expert&pid=4

http://www.pcper.com/images/reviews/319/arch_06.jpg

Da qui sembrerebbe che le prestazioni siano le stesse... :stordita:

Grazie ancora per le risposte. ;)
Da qui dove? :mbe:

Vedo un immagine con scritto: This file stolen from www.pcper.com

yossarian
30-04-2007, 11:19
http://www.pcper.com/article.php?aid=319&type=expert&pid=4

http://www.pcper.com/images/reviews/319/arch_06.jpg

Da qui sembrerebbe che le prestazioni siano le stesse... :stordita:

Grazie ancora per le risposte. ;)

ti riferisci a questo?

Moving on to the texture units on the G80, there are two texture fetch (TF) units for every texture address (TA) unit; this allows for a total of 32 pixels per clock of texture addressing and 64 pixels per clock of texture filter ops

in tal caso il significato non è lo stesso; le tmu di R600 e quelle di G80 sono differenti; quelle del chip NV sono più semplici: indirizzano 32 texture, fanno texture fetch e filtering su 64. Quelle di R600 indirizzano 32 texture, fanno texture fetch su 80 e ne filtrano 16 per ciclo (questo perchè l'operazione che presenta latenze maggiori è quella di texture fetch).

yossarian
30-04-2007, 11:20
test che possano chiarire le prestazioni in DX 10 quali potrebbero essere ?

per ora, che io sappia, non ci sono ancora test dx10 utili a chiarire le reali prestazioni dei due chip (se si escludono quelli ad uso "interno")

nitroin
30-04-2007, 11:21
2 domande dato che torno ora dalla vacanza...

1) allora 14 oppure 2 maggio?

2) prezzo di lancio?

quoto, vorrei aver certezze anche io...

Io ero rimasto al 2 maggio, ma mi dicono di no ora..

A.L.M.
30-04-2007, 11:23
Da qui dove? :mbe:

L'ultima riga della tabella dovrebbe significare proprio la stessa cosa che c'è nella slide di AMD: 100% di performance nel bilinear filtering a 64bit dovrebbe significare proprio quello, credo. :stordita:

Foglia Morta
30-04-2007, 11:25
per ora, che io sappia, non ci sono ancora test dx10 utili a chiarire le reali prestazioni dei due chip (se si escludono quelli ad uso "interno")

quindi neanche un modo per stabilire quale architettura se la cava meglio con i geometry shader ?

e puoi dirci qualcosa del programmable tessellator ?

A.L.M.
30-04-2007, 11:27
ti riferisci a questo?

Moving on to the texture units on the G80, there are two texture fetch (TF) units for every texture address (TA) unit; this allows for a total of 32 pixels per clock of texture addressing and 64 pixels per clock of texture filter ops

in tal caso il significato non è lo stesso; le tmu di R600 e quelle di G80 sono differenti; quelle del chip NV sono più semplici: indirizzano 32 texture, fanno texture fetch e filtering su 64. Quelle di R600 indirizzano 32 texture, fanno texture fetch su 80 e ne filtrano 16 per ciclo (questo perchè l'operazione che presenta latenze maggiori è quella di texture fetch).

Più che altro all'ultima riga della tabella: non dovrebbe significare proprio la stessa cosa che c'è nella slide di AMD? 100% di performance nel bilinear filtering a 64bit dovrebbe significare la stessa cosa di "can bilinear filter one 64-bit color value per clock"? :boh:

yossarian
30-04-2007, 11:29
quindi neanche un modo per stabilire quale architettura se la cava meglio con i geometry shader ?



no



e puoi dirci qualcosa del programmable tessellator ?

non posso aggiungere altro alle informazioni ufficiali diffuse (spero che i motivi siano chiari).

fukka75
30-04-2007, 11:30
2 domande dato che torno ora dalla vacanza...

1) allora 14 oppure 2 maggio?

2) prezzo di lancio?

1) non si sa
2) non si sa

yossarian
30-04-2007, 11:37
Più che altro all'ultima riga della tabella: non dovrebbe significare proprio la stessa cosa che c'è nella slide di AMD? 100% di performance nel bilinear filtering a 64bit dovrebbe significare la stessa cosa di "can bilinear filter one 64-bit color value per clock"? :boh:

si, ma bisogna veder su quanti campioni in totale; quelle sono le prestazioni riferite ad una singola tmu; l'unica cosa che ci dice è che entrambi i chip sono in grado di filtrare texture a 16 bit per canale in un singolo ciclo

A.L.M.
30-04-2007, 11:43
si, ma bisogna veder su quanti campioni in totale; quelle sono le prestazioni riferite ad una singola tmu; l'unica cosa che ci dice è che entrambi i chip sono in grado di filtrare texture a 16 bit per canale in un singolo ciclo

Ah, ok. Quindi nemmeno questo aspetto è del tutto chiaro ancora... :(

Invece cosa ne pensi del fatto che secondo alcuni il CFAA di R600 potrebbe in realtà essere un Deferred Shading AA? E' un'illazione immotivata? Quale altro metodo ci potrebbe essere per implementare un AA che non si limiti ai bordi dei poligoni (come sembra sia il CFAA), allora?

+Lonewolf+
30-04-2007, 11:45
allora dopo averv letto 5 pagine arretrate di post adesso m sono aggiornato e ho capito (correggetemi se sbaglio) che:

1) questa scheda si confronterà con la gtx e non con le gts e avrà un prezzo di lancio che è pari, se non inferiore a quello della gts da 640mb ma sarà più potente di quest'ultima,i filtri di r600 sono migliori di quelli di g80 e l'AA arriva fino a 24x(:eek: )...uscita o dopodomani oppure fra 2 settimane...in sostanza io ero indeciso tra 8800gts 640 e HD2900xt...da questi ultimi test pare che la 2900 vada parecchio meglio......giusto?

Marko91
30-04-2007, 11:49
guardando quelle slide, la prima considerazione è che, come era prevedibile, si sono dette un mucchio di scemenze sull'architettura dello shader core (non mi riferisco agli interventi di chi scrive sul forum, che si è limitato a riportare rumor o presunte indiscrezioni, e sottolineo il presunte) e qualcuno sta già ritrattando, sembra :D

Un'architettura superscalare non presenta le limitazioni ventilate da qualcuno: una vect4+scalar può processare due istruzioni per ciclo, una vect5 solo una, una superscalare come quella di r600, invece, 5 istruzioni per ciclo (ovvero una istruzione per cilo per ogni alu scalare, esattamente come G80); questo significa che è più semplice un confronto con lo shader core di G80, anch'esso di tipo superscalare.
Rispondendo ad un post di qualche mese fa, avevo iniziato ad accennare al fatto che le alu di R600 erano organizzate su più livelli rispetto a quelle di G80 (un po' come accade tra R5x0 e G7x). Questo implica una logica più complessa che richiede più cicli di clock. La conseguenza è che nel calcolo di shader semplici, un'architettura meno complessa dal punto di vista dell'organizzazione delle unità di calcolo è più veloce; con gli shader più complessi, al contrario, la migliore organizzazione di un'architettura complessa permette risultati migliori: questo perchè un'architettura complessa esegue, in ogni caso, una serie di operazioni che per shader semplici si rivelano superflue, facendo perdere cicli di clock; al contrario, con shader complessi, proprio quelle operazioni in più permettono alle alu di essere meglio organizzate sul lavoro da eseguire. Si tratta semplicemente di due differenti filosofie costruttive.
In G80 si ha un'organizzazione di tipo 8-4-4, ovvero, un dato in ingresso vede 8 blocchi da 4 gruppi di 4 alu scalari ciascuno; R600 ha un'organizzazione che si potrebbe schematizzare con 4-4-4-5. In ogni caso, entrambi gli shader core sono di tipo superscalare, quindi G80 potrà processare 256 flops per ciclo (più la mul "fantasma" che darebbe altre 128 flops) e ha il vantaggio della maggior frequenza operativa; R600 potrà processare 640 flops per ciclo.
Sulle tmu il discorso è più complesso, perchè entrambi i chip possono indirizzare lo stesso numero di texture per ciclo (e qui è in vantaggio R600 perchè le tmu hanno una frequenza operativa maggiore); G80 dovrebbe avere qualche vantaggio nelle operazioni di texture filtering, invece.
Il bus di R600 è, al contrario di quello di R5x0, un vero e proprio ring, come quello del cell (in R5x0) i dati viaggiano su un anello, mentre le richieste di accesso utilizzano un'architettura di tipo crossbar, quindi di fatto è un ibrido); la struttura ad anello permette di rendere più efficiente la fase di inoltro delle richieste di accesso alla ram, rendendo il mc disponibile per altre operazioni, teoricamente, dopo un solo ciclo (contro i 2 del bus del bus di R5x0 e i 4 del crossbar); questo dovrebbe rendere molto più efficiente l'accesso alla vram da parte delle unità di calcolo.


Qual'è l'engine che attualmente fa più uso di shader complessi? Escludendo Crysis ovviamente.
:)

A.L.M.
30-04-2007, 11:49
allora dopo averv letto 5 pagine arretrate di post adesso m sono aggiornato e ho capito )correggetemi se sbaglio) che:

1) questa scheda si confronterà con la gtx e non con le gts e avrà un prezzo di lancio che è pari, se non inferiore a quello della gts da 640mb ma sarà più potente di quest'ultima,i filtri di r600 sono migliori di quelli di g80 e l'AA arriva fino a 24x(:eek: )...uscita o dopodomani oppure fra 2 settimane...in sostanza io ero indeciso tra 8800gts 640 e HD2900xt...da questi ultimi test pare che la 2900 vada parecchio meglio......giusto?

Non proprio. Come ho già scritto in molti giochi DX9 non shader intensive dovrebbe andare meglio di una GTS e peggio di una GTX. Nei giochi DX9 shader intensive o DX10 potrebbe avere performances assimilabili se non superiori in certi casi ad una GTX. Le performance in di 2 XT in CF potrebbero essere migliori di quelle di 2 GTX in SLI.
Filtri, qualità delle immagini e qualità/prestazioni video dovrebbero essere migliori sulle ATi. ;)

fukka75
30-04-2007, 11:51
edit

+Lonewolf+
30-04-2007, 11:52
Non proprio. Come ho già scritto in molti giochi DX9 non shader intensive dovrebbe andare meglio di una GTS e peggio di una GTX. Nei giochi DX9 shader intensive o DX10 potrebbe avere performances assimilabili se non superiori in certi casi ad una GTX. Le performance in di 2 XT in CF potrebbero essere migliori di quelle di 2 GTX in SLI.
Filtri, qualità delle immagini e qualità/prestazioni video dovrebbero essere migliori sulle ATi. ;)

grazie per la tua chiarezza...allora ti pongo 2 domande(oramai gli ultimi dubbi)

1) quindi in ogni caso meglio della 8800gts 640 che avevo in programma io?

2) cos'è il deferred shading AA?

yossarian
30-04-2007, 11:52
Ah, ok. Quindi nemmeno questo aspetto è del tutto chiaro ancora... :(

Invece cosa ne pensi del fatto che secondo alcuni il CFAA di R600 potrebbe in realtà essere un Deferred Shading AA? E' un'illazione immotivata? Quale altro metodo ci potrebbe essere per implementare un AA che non si limiti ai bordi dei poligoni (come sembra sia il CFAA), allora?

per ora è solo un'illazione

shodan
30-04-2007, 11:53
Perdonatemi se non leggo tutto il thread, ma per 260+ dovrei prendermi le ferie! :D

Dato che sono rimasto un po' indietro, volevo chiedervi:
a) quante texture unit ha G80?
b) G80 può fare trilinear filter in un solo colpo di clock?
c) quante texture unit avrà R600?
d) R600 potrà fare trilinear filter in un solo colpo di clock?

Ringrazio anticipatamente ogni anima pia che si prenderà la briga di rispondermi! :)

Ciao. :)

yossarian
30-04-2007, 11:54
Qual'è l'engine che attualmente fa più uso di shader complessi? Escludendo Crysis ovviamente.
:)


questo dovresti chiederlo ad un programmatore. Quello che posso dirti è che a livello di complessità di istruzioni, le dx10 supereranno di molto le dx9

neo1987
30-04-2007, 11:56
Quando esconooooooooo??? :cry:

+Lonewolf+
30-04-2007, 11:57
Perdonatemi se non leggo tutto il thread, ma per 260+ dovrei prendermi le ferie! :D

Dato che sono rimasto un po' indietro, volevo chiedervi:
a) quante texture unit ha G80?
b) G80 può fare trilinear filter in un solo colpo di clock?
c) quante texture unit avrà R600?
d) R600 potrà fare trilinear filter in un solo colpo di clock?

Ringrazio anticipatamente ogni anima pia che si prenderà la briga di rispondermi! :)

Ciao. :)

1) se intendi pixel processor la gtx ha 128 unità
2)mi pare di aver letto che è così correggete se sbaglio...SI
3) pare 320 stream processors...che xò sono diverse dalle 128 di G80...altrimenti andrebbe il triplo:confused:
4)SI...sempre mi pare xò...adesso controllo:rolleyes:

+Lonewolf+
30-04-2007, 11:57
Quando esconooooooooo??? :cry:

o 2 o 14 maggio;) dobbiamo ancora scoprirlo

A.L.M.
30-04-2007, 12:06
grazie per la tua chiarezza...allora ti pongo 2 domande(oramai gli ultimi dubbi)

1) quindi in ogni caso meglio della 8800gts 640 che avevo in programma io?

2) cos'è il deferred shading AA?

1) Dipende dal costo. Se si manterrà al livello della GTS640 o inferiore, sarà più conveniente. ;)

2) E' la possibilità di avere un vero AA anche nei giochi che usano il deferred shading (sicuramente quelli basati sull'Unreal Engine 3). Di più non saprei dirti... :boh:

+Lonewolf+
30-04-2007, 12:08
1) Dipende dal costo. Se si manterrà al livello della GTS640 o inferiore, sarà più conveniente. ;)

2) E' la possibilità di avere un vero AA anche nei giochi che usano il deferred shading (sicuramente quelli basati sull'Unreal Engine 3). Di più non saprei dirti... :boh:

grazie mille cmq io per "meglio della 8800gts640" intendevo prestazionalmente...va un po' di più o parecchio d +:D?

devo comprare a breve x qst chiedo

Free Gordon
30-04-2007, 12:13
una vect4+scalar può processare due istruzioni per ciclo, una vect5 solo una, una superscalare come quella di r600, invece, 5 istruzioni per ciclo (ovvero una istruzione per cilo per ogni alu scalare, esattamente come G80); questo significa che è più semplice un confronto con lo shader core di G80, anch'esso di tipo superscalare.

Nella mia infinita ignoranza :sofico: quando qualche pag prima ho risposto Vec5D volevo proprio dire questo. :D
E cioè che possono processare 5 ipc.

Però, se ci fosse la MUL in G80, sarebbe cmq potenzialmente più veloce lo shader core di G80, no?

Free Gordon
30-04-2007, 12:13
IMHO l'AA nel 2007 è d'obbligo ( e la storia che molti raccontano che con risoluzioni, tipo dalla 1920x1200 in su, l'AA sia inutile è una leggenda metropolitana inventata da chi non ha mai visto un monitor del genere, dato che i "gradini" sono uguali a quelli che si hanno 17" 1280x1024, ce ne sono semplicemente di più :doh: )

Beh, a 1920x1200 ovviamente i gradini sono più piccoli, dato che la res è più alta e per cui si vedono obbligatoriamente di meno.
Ovvio poi che ci siano cmq. :D
E se hai l'occhio li vedi.

yossarian
30-04-2007, 12:17
Però, se ci fosse la MUL in G80, sarebbe cmq potenzialmente più veloce lo shader core di G80, no?

si; circa 518 Gflops contro 477; il problema è che a distanza di 6 mesi dall'uscita ancora non è chiaro se la mul sia o meno indipendente (a questo punto appare difficile che il problema siano i driver "acerbi"). In fondo, anche lo shader core di G7x, sulla carta, è più veloce di quello di R5x0. Sulla carta ;)

Nella mia infinita ignoranza :sofico: quando qualche pag prima ho risposto Vec5D volevo proprio dire questo. :D
E cioè che possono processare 5 ipc.



faccio finta di non aver letto:sofico:

+Lonewolf+
30-04-2007, 12:18
Beh, a 1920x1200 ovviamente i gradini sono più piccoli, dato che la res è più alta e per cui si vedono obbligatoriamente di meno.
Ovvio poi che ci siano cmq. :D
E se hai l'occhio li vedi.

la res è + alta ma lo schermo è + grande quinsi sec me è una grande buffonata...è la stessa cosa di 1280...è uguale dire 1280x1024 pixel su 17" o 1920x1200 su nonsoquanti pollici...IMHO

A.L.M.
30-04-2007, 12:19
grazie mille cmq io per "meglio della 8800gts640" intendevo prestazionalmente...va un po' di più o parecchio d +:D?

devo comprare a breve x qst chiedo

Guarda, i test che sono in giro ora possono dare un'idea, ma non sono affidabilissimi (per tutta una serie di motivi). Io aspetterei comunque le prime recensioni ufficiali di HD2900 XT prima di comprare. Poi ovviamente a causa dell'impossibilità ad oggi di comparare le performance in DX10, il giudizio "finale" non è ancora possibile darlo (per quello bisognerà aspettare la seconda metà dell'anno, quando usciranno i primi giochi DX10, visto che prima al max si avranno le patch DX10 per giochi DX9 o qualche demo). Ma questo ovviamente vale pure per G80. ;)

+Lonewolf+
30-04-2007, 12:23
i vari rumors x i prezzi di lancio della HD2900XT sono sempre 400$...quindi calcolando i soloiti rincari(puah) in italia qui costerà sulle 450€...come oggi una gts...

Free Gordon
30-04-2007, 12:23
INTANTO riporto un rumor, rumorosissimo :D

La 10.1 a pour but d'intégrer une APi physique qui puisse être prise en charge par le GPU de la carte graphique, contrairement à Ageia qui nécessite son api et une carte PPU secondaire, d'autres nouveautés sont prévu..

Ipotesi assurda: se R600 fosse dx10.1 avrà la possibilità di esprimere anche questa succosa feature?? :D :D :D

+Lonewolf+
30-04-2007, 12:24
INTANTO riporto un rumor, rumorosissimo :D



Ipotesi assurda: se R600 fosse dx10.1 avrà la possibilità di esprimere anche questa succosa feature?? :D :D :D

scusate ma la fisica integrata non cel'aveva pure g80??????????? io avevo letto una cosa da qlk parte!!

+Lonewolf+
30-04-2007, 12:33
scusate la domanda ma sarà più lunga di una gts da 640????

A.L.M.
30-04-2007, 12:35
scusate la domanda ma sarà più lunga di una gts da 640????

Lievemente più lunga, ma abbastanza più corta di una GTX.

neo1987
30-04-2007, 12:35
o 2 o 14 maggio;) dobbiamo ancora scoprirlo

Ottimo. Cosi finalmente ci sarà un pò di concorrenza! :sofico:

Prevedo PC nuovo in arrivo! :D

Free Gordon
30-04-2007, 12:43
si; circa 518 Gflops contro 477; il problema è che a distanza di 6 mesi dall'uscita ancora non è chiaro se la mul sia o meno indipendente (a questo punto appare difficile che il problema siano i driver "acerbi"). In fondo, anche lo shader core di G7x, sulla carta, è più veloce di quello di R5x0. Sulla carta ;)

In pratica sta MUL in più non è indipendente, per cui siamo sempre lì.. più complesso e lungo è lo shader, più l'archi ATI fungerà bene e viceversa, esattamente come con R5x0/G7x. :D



faccio finta di non aver letto:sofico:

Mi perdoni, non ero in me, ero posseduto dal demone della follia!!!! :sofico: :sofico: :sofico:

+Lonewolf+
30-04-2007, 12:46
aja...se è così lunga nel mio thermaltake mambo non ci entra...:(

Free Gordon
30-04-2007, 12:51
Perdonatemi se non leggo tutto il thread, ma per 260+ dovrei prendermi le ferie! :D

Dato che sono rimasto un po' indietro, volevo chiedervi:
a) quante texture unit ha G80?
b) G80 può fare trilinear filter in un solo colpo di clock?
c) quante texture unit avrà R600?
d) R600 potrà fare trilinear filter in un solo colpo di clock?

Ringrazio anticipatamente ogni anima pia che si prenderà la briga di rispondermi! :)

Ciao. :)


a) 32
b) sì
c) 32
d) no

Aggiungo anche che le operazioni di texture fetch dovrebbero essere più veloci in R600 (perchè stando a quanto scritto da Yoss, nasconderebbe meglio le latenze avendo 80 unità) mentre quelle di texture filtering dovrebbero essere più veloci in G80.

Alla fine dal lato texture non la vedo così male per R600, potrebbe essere più veloce in molti casi (avendo 100mhz o più in più di G80) mentre dal lato shader dipenderà molto da come verranno programmati gli ultimi giochi dx9, perchè sulle 10 le cose dovrebbero essere a vantaggio di R600.

Cmq non credo che ci saranno molto giochi dx9 che faranno scendere una 2900XT sotto i 60fps... :D e per i dx10 vedremo. :oink:

Free Gordon
30-04-2007, 12:55
scusate ma la fisica integrata non cel'aveva pure g80??????????? io avevo letto una cosa da qlk parte!!

Con le 10.1 la fisica avrà un API integrata tutta sua, a quanto pare.

Praticamente se questa cosa fosse vera, le vere dx10 sarebbero le dx10.1 :D

+Lonewolf+
30-04-2007, 13:00
Con le 10.1 la fisica avrà un API integrata tutta sua, a quanto pare.

Praticamente se questa cosa fosse vera, le vere dx10 sarebbero le dx10.1 :D

che fregaturaaaaaaaa

Pat77
30-04-2007, 13:07
Si era detto che dx10.1 avrebbero riguardato solo il lato software... da dove viene la voce che integra ora un'api interamente dedicata alla fisica?

Questo non fa altro che allontanare i videogiocatoridal gaming pc imho

Raven
30-04-2007, 13:07
che fregaturaaaaaaaa

Beh... per le dx9 abbiamo avuto 3 generazioni di schede:
- 9700 (9800) / fx5800 (5900)
- X800 / 6800
- X1800 (X1900) / 7800 (7900)

La cosa si ripeterà anche con le dx10... ;)

yossarian
30-04-2007, 13:08
In pratica sta MUL in più non è indipendente,

a questo punto, il dubbio appare legittimo

per cui siamo sempre lì.. più complesso e lungo è lo shader, più l'archi ATI fungerà bene e viceversa, esattamente come con R5x0/G7x. :D



si, dovrebbe ripetersi, grosso modo, la stessa situazione già vista con G7x e R5x0




Mi perdoni, non ero in me, ero posseduto dal demone della follia!!!! :sofico: :sofico: :sofico:

capita piuttosto di frequente :ciapet:

Marko91
30-04-2007, 13:09
INTANTO riporto un rumor, rumorosissimo :D



Ipotesi assurda: se R600 fosse dx10.1 avrà la possibilità di esprimere anche questa succosa feature?? :D :D :D

Sinceramente dubito fortemente che sarà Directx 10.1, anche perchè ancora le specifiche definitive non sono state ancora rilasciate.
La presenza della tessellator non indica nulla poichè è solo una ipotesi la sua presenza nelle Dx10.1.
Sicuramente però Ati non l'ha messa lì per niente.
:D

Poliphilo
30-04-2007, 13:44
Non proprio. Come ho già scritto in molti giochi DX9 non shader intensive dovrebbe andare meglio di una GTS e peggio di una GTX. Nei giochi DX9 shader intensive o DX10 potrebbe avere performances assimilabili se non superiori in certi casi ad una GTX. Le performance in di 2 XT in CF potrebbero essere migliori di quelle di 2 GTX in SLI.
Filtri, qualità delle immagini e qualità/prestazioni video dovrebbero essere migliori sulle ATi. ;)

Mi spieghi su che base dici queste cose? Cioè: che sarà peggio di una GTX in DX9 e che potrebbe avere performance assimilabili ad una GTX in DX10?

Pat77
30-04-2007, 13:50
Beh... per le dx9 abbiamo avuto 3 generazioni di schede:
- 9700 (9800) / fx5800 (5900)
- X800 / 6800
- X1800 (X1900) / 7800 (7900)

La cosa si ripeterà anche con le dx10... ;)

Speriamo di no, quello che conta è avere un standard stabile e duraturo per spingere verso lo sfruttamento dell'hw, se corritroppo imho si avranno sempre meno ottimizzazioni.

ale0bello0pr
30-04-2007, 13:51
Mi arrivano conferme da un amico che lavora per un'azienda partner di AMD che sarà il 2 Maggio....preparatevi... :sbav:

esticbo
30-04-2007, 13:54
Mi arrivano conferme da un amico che lavora per un'azienda partner di AMD che sarà il 2 Maggio....preparatevi... :sbav:

:eek: :cry: era ora di sentire una bella notizia

+Lonewolf+
30-04-2007, 13:54
Mi arrivano conferme da un amico che lavora per un'azienda partner di AMD che sarà il 2 Maggio....preparatevi... :sbav:

?????????????????? ma sicuro??????????????????????

la HD2900 esce il 2 allora? quindi insieme alla 8800 ultra....mmmmmmmm:rolleyes:

TecnoWorld8
30-04-2007, 13:57
Speriamo di no, quello che conta è avere un standard stabile e duraturo per spingere verso lo sfruttamento dell'hw, se corritroppo imho si avranno sempre meno ottimizzazioni.

già per il fatto che l'uso delle DX10 sia subordinato all'installazione di Vista, mi fa propendere per l'eliminazione dell'aggettivo "stabile" dalla tua frase :D

belin
30-04-2007, 14:00
...bene, bene, bene...felice di leggere gli interventi di yossarian e di vedere quelle slide sull'architettura. L'NDA sta per terminare, gli articoli di Fudzilla pure.


:)

Free Gordon
30-04-2007, 14:01
a questo punto, il dubbio appare legittimo
E se nVidia attendesse l'uscita delle 2900 per esporla?



si, dovrebbe ripetersi, grosso modo, la stessa situazione già vista con G7x e R5x0
Vedi che ognitanto qualcosa la azzecco? :ciapet:



capita piuttosto di frequente :ciapet:
sei tu che non comprendi la mia raffinata dialettica!!! :ciapet: :ciapet: :ciapet:

:rotfl:

yossarian
30-04-2007, 14:04
E se nVidia attendesse l'uscita delle 2900 per esporla?


e che senso avrebbe? Pensi che in AMD non sappiano come è fatto un G80?



Vedi che ognitanto qualcosa la azzecco? :ciapet:



:Prrr:



sei tu che non comprendi la mia raffinata dialettica!!! :ciapet: :ciapet: :ciapet:

:rotfl:

a dire la verità, né io né altri :D

Free Gordon
30-04-2007, 14:10
Speriamo di no, quello che conta è avere un standard stabile e duraturo per spingere verso lo sfruttamento dell'hw, se corritroppo imho si avranno sempre meno ottimizzazioni.



Per cui tu diresti, 3 anni con le stesse identiche API e 2 gen di GPU (e derivati) con lo stesso tipo di shader implementati? Solo sempre più veloci?

Praticamente sarebbe lo scenario perfetto per nVidia... :ciapet:


Oddio, non che mi dispiaccia una cosa del genere, sia chiaro eh :D : potremmo fare confronti più chiari dal punto di vista dell'efficienza architetturale se le cose funzionassero così, soprattutto a fine generazione.

Ma non credo che Ms se ne starà mai 3 anni senza muover ciglio dal lato dell'evoluzione software.... è troppo il rischio che una "futura concorrenza" sposti più in là il picchetto delle features grafiche.

A.L.M.
30-04-2007, 14:13
Mi spieghi su che base dici queste cose? Cioè: che sarà peggio di una GTX in DX9 e che potrebbe avere performance assimilabili ad una GTX in DX10?

Sulle stesse basi secondo cui tutti stanno chiacchierando in questo thread, le info più verosimili trapelate finora. Le slides sull'architettura sono originali, imho, e da quelle si possono già fare ipotesi più fondate su come andrà coi diversi giochi. E' verosimile infatti che la XT potrebbe andare peggio di una GTX nei giochi DX9 basati sui motori grafici meno moderni e meno shader intensive, ma è altrettanto verosimile che la tendenza possa invertirsi coi giochi DX9 e soprattutto DX10 con ampio uso di shaders. ;)

@ yossarian e Free Gordon:

che ne pensate invece della mia "interpretazione" del disegnino dei ROPs? :D

In realtà infatti le Texture address units sono 32 come in G80, e le ROPs sembrerebbero 32 (contro 24 di G80), ma imho la porzione del render back-end dedicata all'antialiasing (secondo me quella in giallo) potrebbe addirittura essere composta da 64 elementi (16x4). Gli eventuali "problemi", ossia il fatto che nei giochi meno moderni per concezione possa andare meno di una 8800GTX (ma meglio di una GTS), credo che derivino solo dall'architettura scelta per gli shaders, che in certe situazioni è meno efficiente di quella del G80.

http://img410.imageshack.us/img410/6644/20070428deff9681f706dcalr8.jpg

Può essere verosimile? Tra l'altro i 64 elementi dedicati all'AA spiegherebbero pure i 47.5 GigaPixel/sec circa di Pixel Fill Rate che erano riportati in quella vecchia slide, no? :stordita:

+Lonewolf+
30-04-2007, 14:17
io spero in un prezzo di lancio convincente :sperem:

si aprono le scommesse

io dico a partire da 400€ a salire
dal "romano" la si troverà a 330

!!!IMHO!!!

Free Gordon
30-04-2007, 14:18
e che senso avrebbe? Pensi che in AMD non sappiano come è fatto un G80?

Allora... come è fatto un G80 a livello di ALU? :D



a dire la verità, né io né altri :D

E' la principale caratteristica di tutti i geni incompresi. :rotfl:

TecnoWorld8
30-04-2007, 14:20
io credo che nel futuro "non troppo prossimo" (inteso come nel giro di 5 anni) le architetture per il 3D cambieranno radicalmente. Intel sta spingendo sul raytracing e pare che AMD anche sia d'accordo sul fatto che quella sia la strada per il vero fotorealismo.

le schede 3D sono nate come un escamotage per sopperire alla mancanza di potenza di calcolo delle CPU, introducendo però moltissime approssimazioni a livello grafico.

l'evoluzione di tali schede ha portato negli anni prima alla nascita del T&L, poi degli shader, rivoluzionando di fatto il loro compito e trasformandole in GPU.

DX10 penso potrebbe essere l'ultima API prima di un cambio radicale di rotta (che porterà al fotorealismo entro una decina d'anni da ora, secondo me) dunque credo durerà alcuni anni.

Pat77
30-04-2007, 14:26
già per il fatto che l'uso delle DX10 sia subordinato all'installazione di Vista, mi fa propendere per l'eliminazione dell'aggettivo "stabile" dalla tua frase :D

Non capisco sinceramente il senso della tua frase, senza offese.
Vista, dx10 e schede dx10 nasciture avessero uno standard condiviso unificato nelle api (peraltro è un po' il motivo per cui oggi esistono solo dx nel gaming) per almeno 2-3 anni significherebbe semplificare la vita a tutti: programmatori, costruttori di hw e utenti.

Se intendi che per unsare le dx10 bisogna cambiare So non vedo dove possa essere lo scandalo, Xp ha parecchi anni alle spalle ed è diventato efficente proprio perchè monolitico.

belin
30-04-2007, 14:28
che ne pensate invece della mia "interpretazione" del disegnino dei ROPs? :D

(...)

Può essere verosimile? Tra l'altro i 64 elementi dedicati all'AA spiegherebbero pure i 47.5 GigaPixel/sec circa di Pixel Fill Rate che erano riportati in quella vecchia slide, no? :stordita:

...dal mio piccolo ti posso solo fare i complimenti per come hai analizzato in maniera tecnica le slide. Tu, io ed altri, con tutti i limiti del caso (parlo per me!) abbiamo sempre cercato di buttare la discussione sul tecnico per capire l'architettura e le novità introdotte, utili per cercare di capire le prestazioni. Altri e la massa (;)) hanno preso Fud come guru.

Scusate il piccolo OT, il primo in mesi di duro lavoro. :D

Andrea deluxe
30-04-2007, 14:30
FUDZILLA = FONTE DI ECCITAZIONE E DELUSIONE ALLO STESSO TEMPO!

Pat77
30-04-2007, 14:33
Per cui tu diresti, 3 anni con le stesse identiche API e 2 gen di GPU (e derivati) con lo stesso tipo di shader implementati? Solo sempre più veloci?

Praticamente sarebbe lo scenario perfetto per nVidia... :ciapet:


Oddio, non che mi dispiaccia una cosa del genere, sia chiaro eh :D : potremmo fare confronti più chiari dal punto di vista dell'efficienza architetturale se le cose funzionassero così, soprattutto a fine generazione.

Ma non credo che Ms se ne starà mai 3 anni senza muover ciglio dal lato dell'evoluzione software.... è troppo il rischio che una "futura concorrenza" sposti più in là il picchetto delle features grafiche.

Io penso che se mi dai uno standard che so che dura, te ne faccio anche 4 di generazioni di gpu più efficenti, che consumano di meno e vanno più forte, senza contare tutta una serie di caratteristiche implementabili via driver.

Mi piacerebbe pensare che questa sudata r600 possa dirsi insieme a nv la base di partenza per creare tutta la generazione di videogiochi dx10 senza ulteriori passettini che considero in larga parte inutili, ma quando si dovrà cambiare si andrà direttamente in dx11, ecc..

Free Gordon
30-04-2007, 14:35
@ yossarian e Free Gordon:


vedi yoss.. :rotfl: :rotfl: :rotfl:


Chiedi solo a yoss và, che forse è un pelino meglio. :asd:



ps.
Cmq il mio modestissimo parere è che è meglio non fidarsi di quel grafico, dato che anche sulle ALU era cannato.

A.L.M.
30-04-2007, 14:36
...dal mio piccolo ti posso solo fare i complimenti per come hai analizzato in maniera tecnica le slide. Tu, io ed altri, con tutti i limiti del caso (parlo per me!) abbiamo sempre cercato di buttare la discussione sul tecnico per capire l'architettura e le novità introdotte, utili per cercare di capire le prestazioni. Altri e la massa (;)) hanno preso Fud come guru.

Scusate il piccolo OT, il primo in mesi di duro lavoro. :D

Grazie! Come ho scritto più volte nemmeno io sono un tecnico, quindi commento con la piccola cultura che mi sono fatto leggendo quà e là su internet... :stordita:

Chiudendo l'OT, non so se vi siete accorti che la radice di Fudzilla, FUD, in inglese sta per una strategia di marketing atta a screditare gli avversari (con false informazioni, ecc...): Fear, Uncertainty & Doubt, appunto. :read: :sofico:

fukka75
30-04-2007, 14:38
In questo caso allora quali sarebbero i suoi "avversari"? ricordiamoci che quando le 8600 erano già uscite continuava a sparare cretinate sulla loro architettura: magari c'è un terzo incomodo che sta per uscire allo scoperto nel mercato delle vga? :mbe:

TecnoWorld8
30-04-2007, 14:41
Non capisco sinceramente il senso della tua frase, senza offese.
Vista, dx10 e schede dx10 nasciture avessero uno standard condiviso unificato nelle api (peraltro è un po' il motivo per cui oggi esistono solo dx nel gaming) per almeno 2-3 anni significherebbe semplificare la vita a tutti: programmatori, costruttori di hw e utenti.

Se intendi che per unsare le dx10 bisogna cambiare So non vedo dove possa essere lo scandalo, Xp ha parecchi anni alle spalle ed è diventato efficente proprio perchè monolitico.

la mia era semplicemente una battuta :)

A.L.M.
30-04-2007, 14:44
In questo caso allora quali sarebbero i suoi "avversari"? ricordiamoci che quando le 8600 erano già uscite continuava a sparare cretinate sulla loro architettura: magari c'è un terzo incomodo che sta per uscire allo scoperto nel mercato delle vga? :mbe:

Credo che sia solo una coincidenza (o forse è voluta?) la cosa del nome...
Io penso che semplicemente miri a confondere le acque da un lato e dall'altro: meglio non addentrarsi nell'analisi delle caxxate di Fuad, che sennò non ne usciamo più... :sofico:
Chiudiamo l'OT, và! ;)

Free Gordon
30-04-2007, 14:49
In questo caso allora quali sarebbero i suoi "avversari"? ricordiamoci che quando le 8600 erano già uscite continuava a sparare cretinate sulla loro architettura: magari c'è un terzo incomodo che sta per uscire allo scoperto nel mercato delle vga? :mbe:


credo che siti come fudzilla o theinq siano semplicemente siti di buontemponi. ;)

tutto quì.. :D

+Lonewolf+
30-04-2007, 15:01
scusate ma dato che non ci sto capendo + niente...potreste PERFAVORE:D

indicarmi le varie rumors del prezzo di lancio?


GRAZIE:D:D

Skullcrusher
30-04-2007, 15:15
2 Maggio? Non sarebbe affatto male :D

Tra 2 giorni allora forse tutte le nostre domande troveranno una risposta ( forse :p ).

non vedo l'ora di leggere le varie recensioni....:D

davide155
30-04-2007, 15:18
io credo che nel futuro "non troppo prossimo" (inteso come nel giro di 5 anni) le architetture per il 3D cambieranno radicalmente. Intel sta spingendo sul raytracing e pare che AMD anche sia d'accordo sul fatto che quella sia la strada per il vero fotorealismo.

le schede 3D sono nate come un escamotage per sopperire alla mancanza di potenza di calcolo delle CPU, introducendo però moltissime approssimazioni a livello grafico.

l'evoluzione di tali schede ha portato negli anni prima alla nascita del T&L, poi degli shader, rivoluzionando di fatto il loro compito e trasformandole in GPU.

DX10 penso potrebbe essere l'ultima API prima di un cambio radicale di rotta (che porterà al fotorealismo entro una decina d'anni da ora, secondo me) dunque credo durerà alcuni anni.

Il ray tracing non è altro che una tecnica di illuminazione favolosa, ma che fa parte di tantissime altre tecniche di rendering.
Solo con quella non si fa il futuro del fotorealismo ;)

TecnoWorld8
30-04-2007, 16:05
Il ray tracing non è altro che una tecnica di illuminazione favolosa, ma che fa parte di tantissime altre tecniche di rendering.
Solo con quella non si fa il futuro del fotorealismo ;)

certamente. ma se hai seguito le ultime idee di Intel & c. pare vogliano riportare il rendering a livello CPU - o meglio - creare architetture specifiche che gestiscano in hw i calcoli per tali tipi di rendering, che alla fine sono quelli usati da programmi di grafica 3D fotorealistica

ale0bello0pr
30-04-2007, 16:41
?????????????????? ma sicuro??????????????????????

la HD2900 esce il 2 allora? quindi insieme alla 8800 ultra....mmmmmmmm:rolleyes:

si e gliele suona :ciapet:

Roman91
30-04-2007, 16:46
si e gliele suona :ciapet:

dopo domani esce la hd 2900?????

zorco
30-04-2007, 17:08
Il ray tracing non è altro che una tecnica di illuminazione favolosa, ma che fa parte di tantissime altre tecniche di rendering.
Solo con quella non si fa il futuro del fotorealismo ;)

a proposito di tecniche di illuminazione ecc... ho trovato sto video di una demo eseguito da r600:D http://www.hardspell.com/english/doc/showcont.asp?news_id=479&pageid=584

Foglia Morta
30-04-2007, 17:11
Se yoss è ci traduce anche il cinese abbiamo già una rece praticamente :sofico:

http://directupload.com/files/hzmynwgg5zjdzniufoio.jpg
http://directupload.com/files/j2rwj2tyjxmcamngnimz.jpeg
http://directupload.com/files/nizonm4myzznr0ndjlma.jpg
http://directupload.com/files/myjzmivzgmyw5iwzdgxi.jpg
http://directupload.com/files/yyijk2zw5qmq3mmojdyd.jpg

johnson
30-04-2007, 17:16
questo dovresti chiederlo ad un programmatore. Quello che posso dirti è che a livello di complessità di istruzioni, le dx10 supereranno di molto le dx9

Quindi c'è da aspettarsi in giochi dx10 un conseguente utilizzo di shaders piu complessi anche da parte dei programmatori, oppure questa conseguenza è solo teorica?
Questa complessità maggiore degli shaders è "obbligatoria"? Oppure sarà a discrezione del programmatore?
E poi questa complessità è richiesta per utilizzi specifici (e quindi necessaria per visualizzare correttamente un certo tipo di effetto) oppure si possono usare shaders più complessi per la riduzione dell'overhead che avviene grazie alle dx10?
Ti prego di perdonarmi il linguaggio poco tecnico, ma spero si capisca :D

A.L.M.
30-04-2007, 17:17
http://directupload.com/files/myjzmivzgmyw5iwzdgxi.jpg

Oleeeee, ci avevo (quasi) azzeccato in pieno! :cincin: :winner: :read:

Potrebbe essere, ma comunque rimane strano che le slide dell'architettura (che sembra sicuro, sono originali, visto che sono state riprese alcune parti anche in queste slides "marchiate") mostrino 4 processing units più piccole ed una più grande (oltre a quello che dovrebbe essere il branching processor della shading unit). Probabile a questo punto che si tratti di un Vec5D particolare, in cui uno dei componenti può all'occorrenza calcolare anche funzioni speciali (come fa il componente scalare delle shading unit di Xenos).

Mister Tarpone
30-04-2007, 17:27
Oleeeee, ci avevo (quasi) azzeccato in pieno! :cincin: :winner: :read:

visto che ci azzecchi sempre mi dici come ti sembrano le 2600 ???
che io ci capisco poco di quei grafici :help: sto andando in confusione..... :stordita:
Insomma!! promettono bene o no?? come andranno secondo te??


:)

ale0bello0pr
30-04-2007, 17:34
visto che ci azzecchi sempre mi dici come ti sembrano le 2600 ???
che io ci capisco poco di quei grafici :help: sto andando in confusione..... :stordita:
Insomma!! promettono bene o no?? come andranno secondo te??


:)
ma xkè voi dai grafici riuscite a capire quanto e come andrà?...:mbe:
:Prrr:

Mister Tarpone
30-04-2007, 17:43
ma xkè voi dai grafici riuscite a capire quanto e come andrà?...:mbe:
:Prrr:


beh, vedendo com'è fatta l'architettura,chi ci capisce potrebbe anche intuire come andranno, più o meno...e quali saranno i suoi punti di forza,no??? o sbaglio?? ;)


( :tie: )

kartoshka
30-04-2007, 17:44
visto che ci azzecchi sempre mi dici come ti sembrano le 2600 ???
che io ci capisco poco di quei grafici :help: sto andando in confusione..... :stordita:
Insomma!! promettono bene o no?? come andranno secondo te??


:)

Di sicuro andrà meglio della 8600 :asd:
Dicono ke va come 1900/1950xt se non di piu .., speriamo :sperem:

A.L.M.
30-04-2007, 17:47
visto che ci azzecchi sempre mi dici come ti sembrano le 2600 ???
che io ci capisco poco di quei grafici :help: sto andando in confusione..... :stordita:
Insomma!! promettono bene o no?? come andranno secondo te??


:)

Guarda che ci avevo azzeccato un po' a :ciapet: :sofico:
Secondo me non saranno male... IMHO andranno meglio di una X1950Pro, ma soprattutto credo che abbiano più possibilità di andare decentemente in DX10 rispetto ad una 8600: ovviamente quello rimarrà comunque un grosso punto interrogativo fin quando non usciranno i primi giochi.
Mi pare che tu abbia una 7600GT, no? Io aspetterei i primi test con le DX10 prima di prendere qualche decisione, altrimenti rischieresti di spendere 200€ per una scheda che ti garantisce solo un discreto miglioramento in DX9 e che non sai se basterà davvero per giocare bene con le DX10...

A.L.M.
30-04-2007, 17:54
ma xkè voi dai grafici riuscite a capire quanto e come andrà?...:mbe:
:Prrr:

beh, vedendo com'è fatta l'architettura,chi ci capisce potrebbe anche intuire come andranno, più o meno...e quali saranno i suoi punti di forza,no??? o sbaglio?? ;)


( :tie: )

Beh, dai grafici qualcosa si può intuire, tipo che comunque potrebbero andare meglio nel gioco coi filtri rispetto alle 8600, se, come penso, la render back-end unit avrà 16 unità per l'AA (contro le 8 della nVIDIA)... :stordita:
Ovviamente queste sono tutte ipotesi fatte sulla base di slides, e naturalmente solo i test dei siti seri potranno dire qualcosa di più credibile... ;)

shodan
30-04-2007, 17:54
a) 32
b) sì
c) 32
d) no

Aggiungo anche che le operazioni di texture fetch dovrebbero essere più veloci in R600 (perchè stando a quanto scritto da Yoss, nasconderebbe meglio le latenze avendo 80 unità) mentre quelle di texture filtering dovrebbero essere più veloci in G80.

Alla fine dal lato texture non la vedo così male per R600, potrebbe essere più veloce in molti casi (avendo 100mhz o più in più di G80) mentre dal lato shader dipenderà molto da come verranno programmati gli ultimi giochi dx9, perchè sulle 10 le cose dovrebbero essere a vantaggio di R600.

Cmq non credo che ci saranno molto giochi dx9 che faranno scendere una 2900XT sotto i 60fps... :D e per i dx10 vedremo. :oink:

Ti ringrazio...
in pratica G80 dovrebbe essere avvantaggiato nel filtrare le texture ma svantaggiato nel "pescarle" dalla VRAM, giusto?

Ciao. :)

Mister Tarpone
30-04-2007, 17:56
ok ;)

ALM, ma i 192Gflops delle x2600xt a quale scheda della precedente generazione possono esser paragonati?? se non è una domanda troppo cretina... :fagiano:

Mister Tarpone
30-04-2007, 17:59
Di sicuro andrà meglio della 8600 :asd:
Dicono ke va come 1900/1950xt se non di piu .., speriamo :sperem:

sicuramente andrà più delle attuali 8600... ;) cmq pare che per giugno nvidia lancerà una 8600 perfezionata con bus a 256bit e 512mb di ram.... ;)

A.L.M.
30-04-2007, 18:01
Ti ringrazio...
in pratica G80 dovrebbe essere avvantaggiato nel filtrare le texture ma svantaggiato nel "pescarle" dalla VRAM, giusto?

Ciao. :)

Forse sì e forse no, dato che non è ancora detto al 100% che le texture filtering unit di G80 (che sono 64 vs 16 di R600) siano effettivamente più potenti. Potrebbe addirttura essere 16 texture filtering unit di R600=64 di G80... :eek:
Per sapere questo occorrerà attendere le prime analisi tecniche approfondite dei diversi siti... :boh:

kartoshka
30-04-2007, 18:03
sicuramente andrà più delle attuali 8600... ;) cmq pare che per giugno nvidia lancerà una 8600 perfezionata con bus a 256bit e 512mb di ram.... ;)

ah ecco.. hanno capito finalmente..

Raven
30-04-2007, 18:35
si e gliele suona :ciapet:

Pregasi fare interventi + costruttivi, grazie...

A.L.M.
30-04-2007, 18:40
Quindi c'è da aspettarsi in giochi dx10 un conseguente utilizzo di shaders piu complessi anche da parte dei programmatori, oppure questa conseguenza è solo teorica?
Questa complessità maggiore degli shaders è "obbligatoria"? Oppure sarà a discrezione del programmatore?
E poi questa complessità è richiesta per utilizzi specifici (e quindi necessaria per visualizzare correttamente un certo tipo di effetto) oppure si possono usare shaders più complessi per la riduzione dell'overhead che avviene grazie alle dx10?

Credo proprio che se i programmatori vorranno usufruire appieno delle potenzialità delle DX10 dovranno usare sempre più shaders complessi.

http://img104.imageshack.us/img104/4782/01425sz1i13282200un2.th.jpg (http://img104.imageshack.us/my.php?image=01425sz1i13282200un2.jpg)

Come si può notare da quest'esempio, il realismo della pelle della ragazza aumenta con l'aumentare della complessità degli shaders... ;)

ok ;)

ALM, ma i 192Gflops delle x2600xt a quale scheda della precedente generazione possono esser paragonati?? se non è una domanda troppo cretina... :fagiano:

Non saprei, visto che comunque l'architettura ATi precedente credo garantisse incredibili performances nel calcolo matematico ma poi all'atto pratico non è che se ne avvantaggiassero moltissimo... Mi sa che anche una X1950Pro potrebbe avere una capacità di calcolo matematico molto superiore. Pensa che la X1950XTX dal punto di vista delle capacità teoriche di calcolo in virgola mobile non dovrebbe essere molto inferiore ad una HD2900XT. Il numero di shading operations teoriche però è ben diverso tra le 2 schede. Forse le nVIDIA serie 7 sono più paragonabili, mi pare che una 7800GTX potesse calcolare 165GFlops/sec...

sicuramente andrà più delle attuali 8600... ;) cmq pare che per giugno nvidia lancerà una 8600 perfezionata con bus a 256bit e 512mb di ram.... ;)

Sul serio? Allora non ne vogliono vendere manco una di 8600? :asd:

Simon82
30-04-2007, 19:53
http://img106.imageshack.us/img106/9016/ringbusii1fw7jf0.jpg

http://img135.imageshack.us/img135/6019/amd1dk8.jpg

http://img61.imageshack.us/img61/654/amd2zd4.jpg

crysis2
30-04-2007, 19:53
raga io ho provato una 8600gts della xfx e vi devo dire che è una scheda spettacolare per giocare a 1280x1024 con tutti i filtri al massimo e anche per giocare a 1600 senza qualche filtro.....fa partire tutti i giochi benissimo!!!!
cmq aspettiamo r600....la data è 16 maggio?

davide155
30-04-2007, 19:55
certamente. ma se hai seguito le ultime idee di Intel & c. pare vogliano riportare il rendering a livello CPU - o meglio - creare architetture specifiche che gestiscano in hw i calcoli per tali tipi di rendering, che alla fine sono quelli usati da programmi di grafica 3D fotorealistica
Si si sapevo di queste idee di amd e intel, ma la computer graphics non è fatta purtroppo solo di raytracing, ma di decine di altre tecniche meravigliose, e allo stesso tempo indispensabili.
a proposito di tecniche di illuminazione ecc... ho trovato sto video di una demo eseguito da r600:D http://www.hardspell.com/english/doc/showcont.asp?news_id=479&pageid=584

Old :D Cmq non mi sorprende per nulla........credevo chissà cosa per essere una tech demo in dx10.

Aspetto la tech demo che accompagna quella di ruby :O

Mister Tarpone
30-04-2007, 19:58
sembra che l'aa delle nuove ati batta in qualità quello delle 8800 .... :fagiano:

Soulbringer
30-04-2007, 20:03
sembra che l'aa delle nuove ati batta in qualità quello delle 8800 .... :fagiano:

Non mi stupirei, visto che cmq la qualità visiva e dei filtri è da sempre stata il cavallo da battaglia di ATI ;) speriamo che anche le prestazioni non deludano!

Simon82
30-04-2007, 20:04
sembra che l'aa delle nuove ati batta in qualità quello delle 8800 .... :fagiano:

Sembra, ma parliamo di slide da presentazione quindi nulla di eclatante senza recensioni da "terze parti". Comunque interessanti le casistiche in cui questo anti aliasing sembra effettivamente piu' efficace sulla carta. ;)

davide155
30-04-2007, 20:08
sembra che l'aa delle nuove ati batta in qualità quello delle 8800 .... :fagiano:

Fonte? :fagiano:

gianni1879
30-04-2007, 20:12
sembra che l'aa delle nuove ati batta in qualità quello delle 8800 .... :fagiano:

storia che si ripete, è successo con le x1000serie vs 7900series, si ripeterà anche stavolta

+Lonewolf+
30-04-2007, 20:13
scusate ma già dal 2 la posso acquistare?

Simon82
30-04-2007, 20:16
Fonte? :fagiano:
Si basava sulle slide sopra. ;)

A.L.M.
30-04-2007, 20:20
Altri test "casalinghi", da prendere con le molle, ovviamente, dato che non c'è l'ndicazione della versione dei drivers, che TDU ha performances un po' strane (a me andava più veloce con l'AA4x che con il 2x :sofico: ), che sono solo screenshots e non mostrano la media, che forse va meglio con le ATi. Però un qualche significato potrebbero comunque averlo. ;)

HD2900 XT
[E6600@default, vga@default, tutto al max, 4xAA+HDR (1280x1024)]

http://img116.imageshack.us/img116/3059/hd2900xt1eo2.th.jpg (http://img116.imageshack.us/my.php?image=hd2900xt1eo2.jpg) http://img118.imageshack.us/img118/8892/hd2900xt2un6.th.jpg (http://img118.imageshack.us/my.php?image=hd2900xt2un6.jpg)

Lo screen col framerate della 8800GTX OC non lo metto, perchè mi pare troppo basso. ;)

Esempietto pratico di come una HD2900 XT potrebbe essere più veloce di una GTX (l'ho trovato su Beyond3D, non garantisco sulla correttezza teorica dell'esempio...):

Yes, the R600XT can co-issue 5 vectors/scalars, and in some cases R600XT is over 2x faster than 8800 GTX.

Test instruction set (length 384, no texture fetch and 100 iterations)
MAD R0.xyz, R0, R0, R1;
MUL R2.x, R2, R3;
MAD R1.x, R1, R1, R3;
MAD R0.xyz, R1, R1, R0;
ADD R2.x, R1, R2;
MUL R3.x, R3, R1;


R600XT (co-issue 3 instructions) - 93,9277 GInstr/sec

8800 GTX - 39,1998 GInstr/sec

Simon82
30-04-2007, 20:33
EDITED

Marko91
30-04-2007, 20:34
Lo screen col framerate della 8800GTX OC non lo metto, perchè mi pare troppo basso. ;)

http://www.dinoxpc.com/News/news.asp?ID_News=12335&What=News



TEST DRIVE UNLIMITED:
1600x1200 4xAA/HDR/16xAF Maximum Details
97.92: 76 fps
158.16: 81 fps

:D :stordita:

Edit: opps sono prestazioni in SLI!! mi son sbagliato :D

Marko91
30-04-2007, 20:35
Se gia' postate le cancello. ;)

Si sono state postate ieri sera ;)

Simon82
30-04-2007, 20:36
Si sono state postate ieri sera ;)

Editate, tornato oggi e mi sto' aggiornando. :)

Robbysca976
30-04-2007, 20:39
Be raga ma il 2 si sa qualcosa o si rimanda al 14?:muro:

A.L.M.
30-04-2007, 20:40
http://www.dinoxpc.com/News/news.asp?ID_News=12335&What=News



TEST DRIVE UNLIMITED:
1600x1200 4xAA/HDR/16xAF Maximum Details
97.92: 76 fps
158.16: 81 fps

:D :stordita:

Edit: opps sono prestazioni in SLI!! mi son sbagliato :D

Infatti... :D In single card credo facciano meno di 60fps in media a 1280x1024 HDR+AA4x... ;)
Tra l'altro allucinanti le prestazioni della 8800GTX in SLI a R6Vegas a 1600x1200 e HDR... 24fps :eekk:
(scusate l'OT :asd: )

Defragg
30-04-2007, 20:40
mettetele in prima pagina http://www.lshwupgrade.com/images/smiles/sisi.gif

LCol84
30-04-2007, 20:42
Infatti... :D In single card credo facciano meno di 60fps in media a 1280x1024 HDR+AA4x... ;)
Tra l'altro allucinanti le prestazioni in SLI a R6Vegas a 1600x1200 e HDR... 24fps :eekk:

Ma sti cazzi, allora r600 dovrebbe essere parekkio più veloce in questo test se lo screen fosse vero...
Interessante

dantes76
30-04-2007, 21:11
http://img110.imageshack.us/img110/3897/img200704301812010na5.png (http://imageshack.us)

X2900
http://img110.imageshack.us/img110/1779/img200704301758040no4.jpg (http://imageshack.us)

X2600
http://img125.imageshack.us/img125/6158/img200704301849110ry5.jpg (http://imageshack.us)

http://img125.imageshack.us/img125/5549/img200704301849380bc7.jpg (http://imageshack.us)


X2400

http://img125.imageshack.us/img125/7113/img200704301845240im5.jpg (http://imageshack.us)

Postate?

A.L.M.
30-04-2007, 21:12
Postate?

Sì. ;)

+Lonewolf+
30-04-2007, 21:16
http://img110.imageshack.us/img110/3897/img200704301812010na5.png (http://imageshack.us)

X2900
http://img110.imageshack.us/img110/1779/img200704301758040no4.jpg (http://imageshack.us)

X2600
http://img125.imageshack.us/img125/6158/img200704301849110ry5.jpg (http://imageshack.us)

http://img125.imageshack.us/img125/5549/img200704301849380bc7.jpg (http://imageshack.us)


X2400

http://img125.imageshack.us/img125/7113/img200704301845240im5.jpg (http://imageshack.us)

Postate?

quindi in alcuni casi come se non meglio di 2 gts!!!!!

la situazione inizia a piacermi:oink:

dantes76
30-04-2007, 21:16
Sì. ;)

edito? :cry:

+Lonewolf+
30-04-2007, 21:18
edito? :cry:

no lascialo è cmq interessante...ho quotato;)

davide155
30-04-2007, 21:18
Il dissi è uguale a quello del g80!! :eek: :eek: :eek:

Maury
30-04-2007, 21:19
Si sa nulla su eventuali versioni AGP ? :confused:

A.L.M.
30-04-2007, 21:20
quindi in alcuni casi come se non meglio di 2 gts!!!!!

la situazione inizia a piacermi:oink:

Io non farei comunque troppo affidamento su quella slide, visto che dovrebbero essere test fatti direttamente da AMD... ;)

edito? :cry:

Io avevo postato i thumbnails linkati a imageshack, queste magari si vedono meglio.

Simon82
30-04-2007, 21:20
Certo che la modalita' dual per le X2400... :what: :p

A.L.M.
30-04-2007, 21:26
Si sa nulla su eventuali versioni AGP ? :confused:

Quasi sicuramente usciranno le HD2600XT per AGP. Schede più potenti non saprei... :boh:

bladerunner86
30-04-2007, 21:41
il consumo di questi mostri quanto dovrebbe essere sia idle che in full load? maggiori uguali o minori di quelli di una g80?

Defragg
30-04-2007, 21:46
Si sa nulla su eventuali versioni AGP ? :confused:

L'AGP E' MORTO!

p.s. scusa il maiuscolo ma oramai è cosa appurata, notando pure che la stramaggioranza di CPU su sistemi AGP strozzerebbe troppo queste schede ;)
mi pare giusto dire che la fascia alta su AGP è da considerarsi defunta :(

davide155
30-04-2007, 21:48
L'AGP E' MORTO!


:asd:

:rotfl:

ATi7500
30-04-2007, 21:52
:asd:

:rotfl:

il Nietszche dei giorni nostri :asd:
comunque i miei complimenti ad A.L.M. e Marco91 , i loro interventi tecnici mi ricordano molto quelli di yoss di cui, bisogna dirlo anche se ha postato recentemente, si sente la mancanza :)

bYeZ!

Defragg
30-04-2007, 21:57
il Nietszche dei giorni nostri :asd:

salute! :asd: :stordita:

p.s. sarebbe? http://www.lshwupgrade.com/images/smiles/look.gif

Defragg
30-04-2007, 21:59
Ciao,

Che versione di HDCP è stata implementata su questa scheda?

Grazie

Ugo

credo la solita, non esistono altre versioni di HDCP http://www.lshwupgrade.com/images/smiles/look.gif

forse ti confondi con l'HDMI che è arrivato alla versione 1.3...ma a questo non sò risponderti

Maury
30-04-2007, 22:01
L'AGP E' MORTO!

p.s. scusa il maiuscolo ma oramai è cosa appurata, notando pure che la stramaggioranza di CPU su sistemi AGP strozzerebbe troppo queste schede ;)
mi pare giusto dire che la fascia alta su AGP è da considerarsi defunta :(

Diciamo che è stato accoppato... :rolleyes:

L'AGP andrebbe ancora benone, senza contare che cmq ha una bella base installata ancora sfruttabile, io ad esempio :D

Non penso che il mio NW a 3.4 ghz non mi permetta di giocare bene, anzi... :)

vedrei bene nel mio sys una 1950 pro agp, però aspetto i derivati di r600 per valutare un acquisto :)

A.L.M.
30-04-2007, 22:01
il Nietszche dei giorni nostri :asd:
comunque i miei complimenti ad A.L.M. e Marco91 , i loro interventi tecnici mi ricordano molto quelli di yoss di cui, bisogna dirlo anche se ha postato recentemente, si sente la mancanza :)

bYeZ!

Grazie, ma credo che paragonarmi a yossarian ( :ave: ) sia un'eresia. :D

salute! :asd: :stordita:

p.s. sarebbe? http://www.lshwupgrade.com/images/smiles/look.gif

[Philosophical OT]
Nietszche disse Dio è morto. ;)
[/Philosophical OT]

Simon82
30-04-2007, 22:08
salute! :asd: :stordita:

p.s. sarebbe? http://www.lshwupgrade.com/images/smiles/look.gif

http://en.wikipedia.org/wiki/Friedrich_Nietzsche

:stordita:

IT? :stordita:

Simon82
30-04-2007, 22:10
Diciamo che è stato accoppato... :rolleyes:

L'AGP andrebbe ancora benone, senza contare che cmq ha una bella base installata ancora sfruttabile, io ad esempio :D

Non penso che il mio NW a 3.4 ghz non mi permetta di giocare bene, anzi... :)

vedrei bene nel mio sys una 1950 pro agp, però aspetto i derivati di r600 per valutare un acquisto :)

E' pero' innegabile che le limitazioni in espandibilita' (es SLI e &) e in termini di alimentazione ne minavano comunque il futuro (sebbene per quest'ultima e' vero che i 75w originali servono a poco ormai.

Piu' che altro le CPU odierne e future sono/saranno indispensabili per saturare queste gpu.

pedro_se_rooot
30-04-2007, 22:12
la scheda di fascia alta di ati sarà la x2950xtx o la x2900xtx (1 giga di memoria video immagino) ?

scusatemi se rompo, ancora una domandina data di uscita precisa ? si fanno gia i preordini su qualche sito ?

grazie :smack:

Defragg
30-04-2007, 22:13
Si hai ragione intendevo HDMI.

Ugo

ho fatto una piccola ricerchina ma non se ne accenna per niente sulla versione di HDMI :(
mi dispiace

Defragg
30-04-2007, 22:14
http://en.wikipedia.org/wiki/Friedrich_Nietzsche

:stordita:
grazie :)

IT? :stordita:

proprio no :asd:

Defragg
30-04-2007, 22:15
E' pero' innegabile che le limitazioni in espandibilita' (es SLI e &) e in termini di alimentazione ne minavano comunque il futuro (sebbene per quest'ultima e' vero che i 75w originali servono a poco ormai.

Piu' che altro le CPU odierne e future sono/saranno indispensabili per saturare queste gpu.

esatto ;)

Simon82
30-04-2007, 22:15
grazie :)



proprio no :asd:

:p ;)

Maury
30-04-2007, 22:17
E' pero' innegabile che le limitazioni in espandibilita' (es SLI e &) e in termini di alimentazione ne minavano comunque il futuro (sebbene per quest'ultima e' vero che i 75w originali servono a poco ormai.

Piu' che altro le CPU odierne e future sono/saranno indispensabili per saturare queste gpu.

Vero, però l'agp è stato messo in disparte in tempi non maturi, a mio avviso aveva ancora da dare, come dimostrano ad esempio le 1950 Pro e Gt, tanto per stare in casa ATI :)

Poi ovvio, nuovo slot vuol dire nuove mobo/cpu/schede video ... tanti soldi per i produttori ...

Kharonte85
30-04-2007, 22:21
quindi in alcuni casi come se non meglio di 2 gts!!!!!

Ma Quali test hai visto?

Defragg
30-04-2007, 22:25
Ma Quali test hai visto?
quelli postati prima :mbe:

quei grafici di HD2900XT & HD2900 Crossfire vs. 8800GTS & 8800GTS SLi

Simon82
30-04-2007, 22:26
Vero, però l'agp è stato messo in disparte in tempi non maturi, a mio avviso aveva ancora da dare, come dimostrano ad esempio le 1950 Pro e Gt, tanto per stare in casa ATI :)

Poi ovvio, nuovo slot vuol dire nuove mobo/cpu/schede video ... tanti soldi per i produttori ...
Ovvio che alla fine i produttori amano dare nuovi "motivi" non sempre realmente necessari purtroppo, per spingere le persone ad aggiornare laddove non ce ne sarebbe effettivamente bisogno.
Abbiamo visto con le ultime soluzioni che l'AGP basterebbe e avanzerebbe tuttoggi per quel che concerne la banda necessaria ma come ogni bus alla fine diventa vecchio.
L'unica cosa che conforta e' la sua decennale durata. Mai come il PCI ma comunque davvero sfruttato. Se facessero lo stesso per i bus delle cpu ci toglierebbero dei gran grattacapi ad ogni aggiornamento. ;)

Kharonte85
30-04-2007, 22:27
quelli postati prima :mbe:

quei grafici di HD2900XT & HD2900 Crossfire vs. 8800GTS & 8800GTS SLi
Appunto. :mbe:

Speriamo che il 2 si sappia tutto perche' qua fra digressioni tecniche, ipotesi varie, slide e test (fake o no) l'attesa si fa spasmodica...:mc:

Simon82
30-04-2007, 22:40
Ovvio che alla fine i produttori amano dare nuovi "motivi" non sempre realmente necessari purtroppo, per spingere le persone ad aggiornare laddove non ce ne sarebbe effettivamente bisogno.
Abbiamo visto con le ultime soluzioni che l'AGP basterebbe e avanzerebbe tuttoggi per quel che concerne la banda necessaria ma come ogni bus alla fine diventa vecchio.
L'unica cosa che conforta e' la sua decennale durata. Mai come il PCI ma comunque davvero sfruttato. Se facessero lo stesso per i bus delle cpu ci toglierebbero dei gran grattacapi ad ogni aggiornamento. ;)

Mi quoto per aggiungere una cosa: per l'aumento di banda comunque richiesto dopo l'avvento dell'NV40 i limiti in questa ottica visti nell'AGP erano comunque anche di tipo fisico. Il sistema di interconnessione punto a punto utilizzato nel bus AGP creava problemi di continua riduzione di capacita' e induttanza nel voler raggiungere velocita' superiori a quella limite nella versione 8x. Proprio per raggiungere velocita' maggiori e' nato il PCIEx avente una interconnessione seriale differente che nella prima versione gli permette di raggiungere i 2.5Ghz superando i problemi elettrici dell'AGP. ;)

yossarian
30-04-2007, 23:46
Quindi c'è da aspettarsi in giochi dx10 un conseguente utilizzo di shaders piu complessi anche da parte dei programmatori, oppure questa conseguenza è solo teorica?
Questa complessità maggiore degli shaders è "obbligatoria"? Oppure sarà a discrezione del programmatore?
E poi questa complessità è richiesta per utilizzi specifici (e quindi necessaria per visualizzare correttamente un certo tipo di effetto) oppure si possono usare shaders più complessi per la riduzione dell'overhead che avviene grazie alle dx10?
Ti prego di perdonarmi il linguaggio poco tecnico, ma spero si capisca :D

per avere un'idea della complessità delle istruzioni da eseguire e del numero di dati da processare, puoi fare riferimento alla quantità di registri interni delle gpu; fai un confronto tra le specifiche richieste dalle dx10 rispetto alle 9, a livello di numero di registri costanti, temporanei e di lunghezza delle istruzioni

guarda le tabelle nel link sottostante

http://www.hardwaresecrets.com/article/398

yossarian
30-04-2007, 23:53
http://directupload.com/files/myjzmivzgmyw5iwzdgxi.jpg

Oleeeee, ci avevo (quasi) azzeccato in pieno! :cincin: :winner: :read:

ok, ci avevi (quasi) azzeccato in pieno :D

Da notare che, come anche in R5x0, la branch unit è in parallelo alle alu.

Ora, vediamo quante altre analogie riuscite a trovare con R580 (e quali differenze sostanziali, oltre, naturalmente, agli shader unificati) :D

Foglia Morta
01-05-2007, 06:34
http://www.generation-3d.com/11335-sous-3Dmarks-2006-HD-2900-XT,ac8886.htm

http://www.generation-3d.com/UserImgs/imgs/ATi/R600A/3dmarkhd2900.jpg

http://www.generation-3d.com/La-radeon-HD-2600-XT-pulverise-la-X1950-XTX,ac8885.htm

askani
01-05-2007, 06:55
sara un bel mostro altro che chiacchiere..........:D

neo1987
01-05-2007, 07:21
-1

:sbav:

Gioman
01-05-2007, 08:04
Mi sa tanto che qui qualcuno fa il furbone http://downloads.guru3d.com/download.php?det=1628

Poliphilo
01-05-2007, 08:54
http://www.generation-3d.com/11335-sous-3Dmarks-2006-HD-2900-XT,ac8886.htm

http://www.generation-3d.com/UserImgs/imgs/ATi/R600A/3dmarkhd2900.jpg

http://www.generation-3d.com/La-radeon-HD-2600-XT-pulverise-la-X1950-XTX,ac8885.htm

Ciao Emanuele ;) .
Io l'avevo detto di aspettare.

Roman91
01-05-2007, 09:23
-1

:sbav:

domani esce anche la r630??????????:mbe:

Stig
01-05-2007, 09:38
beh...se quel 3dmark06 fosse vero e cioe con un x2 3800+ @def una 2900xt raggiunge quel punteggio....WOW!!! :eek:

Gioman
01-05-2007, 09:45
Aggiungerei anche che il s.o. operativo è vista = mattone

parcher
01-05-2007, 09:48
beh...se quel 3dmark06 fosse vero e cioe con un x2 3800+ @def una 2900xt raggiunge quel punteggio....WOW!!! :eek:

se cosi fosse, il punteggio degli SM2.0 e SM3.0 e' superiore alla mia 8800GTS, anche se ottengo un punteggio superiore finale in quanto ho un Core2 a 3600mhz nel bench... QUI (http://img232.imageshack.us/img232/3210/3dm06rd3.jpg)

P.:read:

tony73
01-05-2007, 10:05
Con un C2D avrebbe ottenuto quasi 800/900 punti in piu' tranquilli tranquilli!! :eek: se sono davvero veritieri c'è veramente da ben sperare,sopratutto per i driver;con la serie X1xx c'è voluto 2/3 settimane dall'uscita per avere dei driver che la sfruttassero realmente....manca poco;finalmente si torna a benchare :cry:


P.S.

Un problema solo mi assilla...XT o XTX???!? :muro:

A.L.M.
01-05-2007, 10:08
http://www.generation-3d.com/11335-sous-3Dmarks-2006-HD-2900-XT,ac8886.htm

http://www.generation-3d.com/UserImgs/imgs/ATi/R600A/3dmarkhd2900.jpg

http://www.generation-3d.com/La-radeon-HD-2600-XT-pulverise-la-X1950-XTX,ac8885.htm

Se fossero a default i punteggi sarebbero davvero stupefacenti, superiori pure ad una 8800 Ultra. :eek:
Ho tra l'altro qualche dubbio che la HD2600 sia così più potente di una X1950XTX... :mbe:

domani esce anche la r630??????????:mbe:

No.

se cosi fosse, il punteggio degli SM2.0 e SM3.0 e' superiore alla mia 8800GTS, anche se ottengo un punteggio superiore finale in quanto ho un Core2 a 3600mhz nel bench... QUI (http://img232.imageshack.us/img232/3210/3dm06rd3.jpg)

P.:read:

Guarda che quella scheda con il tuo stesso processore overclockato farebbe quasi 14800 punti... :asd:

Un problema solo mi assilla...XT o XTX???!? :muro:

La XTX non uscirà per il momento: problema risolto... :D

parcher
01-05-2007, 10:15
Guarda che quella scheda con il tuo stesso processore overclockato farebbe quasi 14800 punti... :asd:



Ho postato lo screen a posta infatti ho visto il punteggio della CPU, visto che i Bench mi appassionano :D
Comunque in previsione dei primi giochi DX10 a settembre e del passaggio forzato a Vista, per chi ha gia una 8800 converrebbe aspettare l'eventuale evoluzione della 2900 prevista in uscita per lo stesso periodo.

P.;)

Poliphilo
01-05-2007, 10:20
Ragazzi, io l'avevo detto qualche giorno fa che queste nuove schede spaccano :D
Voi non mi avete ascoltato :rolleyes:

A dir la verità ho anch'io qualche dubbio che siano proprio veri i risultati: sono dell'idea che quella scheda farà tranquillamente sopra gli 11.000 punti con un coreduo, però stiamo a vedere.

Vi dico solo una cosa: se un H2900XT fa quel punteggio, vi lascio immaginare dove possa arrivare la H2900XTX che avrà 1 Gb di ram DDR4........;)


La XTX non uscirà per il momento: problema risolto... :D

Su questo non ci metterei la mano sul fuoco :D

tony73
01-05-2007, 10:22
Se fossero a default i punteggi sarebbero davvero



La XTX non uscirà per il momento: problema risolto... :D

OK mi hai convinto! 2900XT mia! :yeah:

speriamo che si rendano disponibili al piu presto.

jp77
01-05-2007, 10:23
Su questo non ci metterei la mano sul fuoco :D

Io invece si ;)

parcher
01-05-2007, 10:23
Ragazzi, io l'avevo detto qualche giorno fa che queste nuove schede spaccano :D
Voi non mi avete ascoltato :rolleyes:

A dir la verità ho anch'io qualche dubbio che siano proprio veri i risultati: sono dell'idea che quella scheda farà tranquillamente sopra gli 11.000 punti con un coreduo, però stiamo a vedere.

Vi dico solo una cosa: se un H2900XT fa quel punteggio, vi lascio immaginare dove possa arrivare la H2900XTX che avrà 1 Gb di ram DDR4........;)

Si,ma non si sente parlare dei consumi ???
Dobbiamo cambiare l'ALI ??
e prevedere un'altro aumento sulla bolletta ENEL??
Sai,chi paga il mutuo bada a queste cose ...

P.:cry:

P.:banned:

Poliphilo
01-05-2007, 10:26
Si,ma non si sente parlare dei consumi ???
Dobbiamo cambiare l'ALI ??
e prevedere un'altro aumento sulla bolletta ENEL??
Sai,chi paga il mutuo bada a queste cose ...

P.:cry:

P.:banned:

Pienamente d'accordo. Questo è un bel problema.

Poliphilo
01-05-2007, 10:26
Io invece si ;)

Da dove ti arriva questa sicurezza?

tony73
01-05-2007, 10:30
Si,ma non si sente parlare dei consumi ???
Dobbiamo cambiare l'ALI ??


Hai ragione anche te...il mio Tagan 530W è da pensionare?? non vorrei avere brutte sorprese :muro:

fukka75
01-05-2007, 10:30
domani esce anche la r630??????????:mbe:

Premesso che non si sa nemmeno se domani sarà presentata R600XT, le DX10 di fascia media ATI dovrebbero subire un ritardo, stando agli ultimi rumors, e saranno presentate a giugno (prendila cmnq col beneficio del dubbio)

Defragg
01-05-2007, 10:33
Si,ma non si sente parlare dei consumi ???
Dobbiamo cambiare l'ALI ??
e prevedere un'altro aumento sulla bolletta ENEL??
Sai,chi paga il mutuo bada a queste cose ...

P.:cry:

P.:banned:

un'alimentatore che supporti le 8800 al 90% supporterà anche le HD2900

sai...come se il consumo di una casa aumenti del 50% se metti nel case una HD2900XT invece di una 8800GTS :rolleyes:

ragazzi questa è disinformazione, anche se la scheda succhi 220W o giù di lì, lo fà soltanto quando è in full load, cioè quando la tieni sotto sforzo (giochi, bench, e quantaltro usi pesantemente la scheda video) ;)
non credo che se lasci il pc accesso 24h/24h lo lasci a fare i 3dmark ;)

quello che conta è il consumo in idle, cioè quando la scheda non ha un beneamato niente da fare ;)

Roman91
01-05-2007, 10:35
Premesso che non si sa nemmeno se domani sarà presentata R600XT, le DX10 di fascia media ATI dovrebbero subire un ritardo, stando agli ultimi rumors, e saranno presentate a giugno (prendila cmnq col beneficio del dubbio)

giugno:mad:
allora nel fratempo mi prendo una x1*

halduemilauno
01-05-2007, 10:39
http://www.fudzilla.com/index.php?option=com_content&task=view&id=766&Itemid=1

No launch tomorrow

Some of you might thing that ATI will finally launch R600 tomorrow but you will have to wait some 12 more days for the launch. The launch day remains the 14th and that is when the reviews will go out.

As far as we know it loses in most of the cases from Geforce 8800 GTX and not to mention the Ultra. It should still be a fast in DirectX 10 games but the problem is that we still don’t have any way to really measure it.


Radeon HD 2600 and 2400 cards are delayed till late June.

che dire aspettiamo conferme/smentite.
;)

Pat77
01-05-2007, 10:41
25-40% in più della 1900xtx sarebbe una fascia media assurda imho, speriamo sia vero.

parcher
01-05-2007, 10:48
un'alimentatore che supporti le 8800 al 90% supporterà anche le HD2900

sai...come se il consumo di una casa aumenti del 50% se metti nel case una HD2900XT invece di una 8800GTS :rolleyes:

ragazzi questa è disinformazione, anche se la scheda succhi 220W o giù di lì, lo fà soltanto quando è in full load, cioè quando la tieni sotto sforzo (giochi, bench, e quantaltro usi pesantemente la scheda video) ;)
non credo che se lasci il pc accesso 24h/24h lo lasci a fare i 3dmark ;)

quello che conta è il consumo in idle, cioè quando la scheda non ha un beneamato niente da fare ;)

Io ho un Enermax Coòergiant 480W, chi lo dice che se regge una 8800GTS regge anche una 2900 ?? Lo dici tu ... a va be... mi fido :D

Io parlavo di cambiare l'ali oltre al fatto di avere un aumento sulla bolletta, ma la mia era una battuta.. (Il mutuo e' vero pero' :stordita:)
.....ma nonostatnte tutto dalla Orchid 3dfx Voodoo1 non mi sono perso un appuntamento con le novita' ;)

Tutto il resto lo sappiamo, sono informati un po tutti quelli che postano qui.

Grazie.
P.:banned:

A.L.M.
01-05-2007, 10:55
Si,ma non si sente parlare dei consumi ???
Dobbiamo cambiare l'ALI ??
e prevedere un'altro aumento sulla bolletta ENEL??
Sai,chi paga il mutuo bada a queste cose ...

P.:cry:

P.:banned:

Pienamente d'accordo. Questo è un bel problema.

Hai ragione anche te...il mio Tagan 530W è da pensionare?? non vorrei avere brutte sorprese :muro:

Secondo me comunque anche sotto questo aspetto potrebbero esserci sorprese. Secondo me in idle dovrebbe consumare come una 8800GTX.

Premesso che non si sa nemmeno se domani sarà presentata R600XT, le DX10 di fascia media ATI dovrebbero subire un ritardo, stando agli ultimi rumors, e saranno presentate a giugno (prendila cmnq col beneficio del dubbio)

Le HD2600 verranno comunque presentate il 14 maggio, ma sarà un soft launch. ;)

Kharonte85
01-05-2007, 11:41
http://www.fudzilla.com/index.php?option=com_content&task=view&id=766&Itemid=1

No launch tomorrow

Some of you might thing that ATI will finally launch R600 tomorrow but you will have to wait some 12 more days for the launch. The launch day remains the 14th and that is when the reviews will go out.

As far as we know it loses in most of the cases from Geforce 8800 GTX and not to mention the Ultra. It should still be a fast in DirectX 10 games but the problem is that we still don’t have any way to really measure it.


Radeon HD 2600 and 2400 cards are delayed till late June.

che dire aspettiamo conferme/smentite.
;)
Uffa! speriamo si sbagli...

Defragg
01-05-2007, 11:43
Io ho un Enermax Coòergiant 480W, chi lo dice che se regge una 8800GTS regge anche una 2900 ?? Lo dici tu ... a va be... mi fido :D

per ora nessuno, io ho solo fatto un'ipotesi ;)

resta il fatto che i consumi di questa generazione di VGA saranno più o meno allineati ;)

DakmorNoland
01-05-2007, 11:50
Hai ragione anche te...il mio Tagan 530W è da pensionare?? non vorrei avere brutte sorprese :muro:

Vediamo di mantenere la calma eh! :D

Non dire cavolate! Il tuo Tagan regge di sicuro la 8800GTX, quindi credo reggerà pure la 2900XT, visto che non credo consumerà di + in full, o almeno spero.

Cmq per ora ci possiamo solo attenere all'ali richiesto per una 8800GTX, cioè un 450W con 30A sui +12V (360W). Mentre per la 8800GTS 26A sui +12V bastano.

Adesso non so che tagan tu abbia, ma anche se fosse della serie u15 che credo sia la + scarsa, dovrebbe cmq avere circa 32-34A sui +12V. Cmq basta che verifichi sulla scheda tecnica appiccicata sopra. :p

Kharonte85
01-05-2007, 11:50
Vi dico solo una cosa: se un H2900XT fa quel punteggio, vi lascio immaginare dove possa arrivare la H2900XTX che avrà 1 Gb di ram DDR4........;)

Gia' peccato che non esce...:fagiano:


Quei test hanno la stessa probabilita' (se non >) di essere fake come tutti gli altri visti sinora...;)

A Chi è indeciso gli conviene aspettare le recensioni ufficiali...;)

Defragg
01-05-2007, 11:52
A Chi è indeciso gli conviene aspettare le recensioni ufficiali...;)

ovvio, non vedo l'ora di leggere la rece di HWU :mc:

DakmorNoland
01-05-2007, 11:57
Gia' peccato che non esce...:fagiano:


Quei test hanno la stessa probabilita' (se non >) di essere fake come tutti gli altri visti sinora...;)

A Chi è indeciso gli conviene aspettare le recensioni ufficiali...;)

Sì ma secondo me converrebbe propio aspettare che escano le versioni a 65nm di ste schede video, perchè così come sono messe ora, come dimensioni e consumi fanno un pò paura! :p

Credo che in futuro com'è successo per i processori ci sarà un'inversione di tendenza e si punterà a contenere consumi e calore. Anche perchè tra un pò non ce la faranno + a dissipare ste bestie! E non credo si metteranno a regalare impianti a liquido in corredo con la VGA! :p

LCol84
01-05-2007, 11:58
Sì ma secondo me converrebbe propio aspettare che escano le versioni a 65nm di ste schede video, perchè così come sono messe ora, come dimensioni e consumi fanno un pò paura! :p

Credo che in futuro com'è successo per i processori ci sarà un'inversione di tendenza e si punterà a contenere consumi e calore. Anche perchè tra un pò non ce la faranno + a dissipare ste bestie! E non credo si metteranno a regalare impianti a liquido in corredo con la VGA! :p

Speriamo sia proprio come dici!

fukka75
01-05-2007, 12:08
Le HD2600 verranno comunque presentate il 14 maggio, ma sarà un soft launch. ;)

Vabbè io intendevo la disponibilità sul mercato, mi sono espresso male ;)

Athlon 64 3000+
01-05-2007, 12:08
fudzilla potrebbe avere detto la verità come una grossa balla.
Solo domani pomeriggio potremo sapere se verrà veramente presentata la HD 2900XT oppure bisognerà aspettare il 14 maggio.

+Lonewolf+
01-05-2007, 12:11
possiamo un'attimo approfondire il problema dell'alimentazione e delle dimensioni?

io vorrei prendere subito la scheda ma ho un thermaltake mambo in cui la gts ci sta...ma nn so se la HD2900 ci entra...è molto + grande?

per l'alimentazione ho un enermax liberty500w...con i dati in vostro possesso che mi dite?

Kharonte85
01-05-2007, 12:13
possiamo un'attimo approfondire il problema dell'alimentazione e delle dimensioni?

io vorrei prendere subito la scheda ma ho un thermaltake mambo in cui la gts ci sta...ma nn so se la HD2900 ci entra...è molto + grande?

per l'alimentazione ho un enermax liberty500w...con i dati in vostro possesso che mi dite?
Tanto prima del 14 in ogni caso non verranno commercializzate, quindi i dettagli dei consumi si sapranno...

Per le dimensioni si sa che dovrebbe essere un po' piu' lunga della GTS ma piu' corta della gtx

Un parere personale? Un enermax 500w secondo me regge.

+Lonewolf+
01-05-2007, 12:14
Tanto prima del 14 in ogni caso non verranno commercializzate, quindi i dettagli dei consumi si sapranno...

Un parere personale? Un enermax 500w secondo me regge.

mmm...e x le dimensioni che mi dici? molto + grande della gts?

prima del 14 nn verranno commercializzate? ma nn verranno presentate domani?

A.L.M.
01-05-2007, 12:20
mmm...e x le dimensioni che mi dici? molto + grande della gts?

prima del 14 nn verranno commercializzate? ma nn verranno presentate domani?

Una foto vale più di mille parole...

In ordine:

8800GTS
HD2900XT
8800GTX

http://www.pcgameshardware.de/screenshots/original/1177660081663.jpg

Ulteriori riflessioni (e schema/calcoli) sul caso che avevo postato qualche pagina fa: un'iterazione in cui R600 potrebbe dare la paga alla GTX (e forse anche alla Ultra). ;)

Tertsi's latest code seems like cruel and unusual punishment:

http://www.cupidity.f9.co.uk/b3d96.gif

Note the rates are for 1 iteration.

Also note I left R600 at 800MHz. Scale it down for whatever you think the real clock of XTX (or the tested XT) will be. And scale G80 up for whatever you think Ultra will be...

Jawed

parcher
01-05-2007, 12:22
Tanto prima del 14 in ogni caso non verranno commercializzate, quindi i dettagli dei consumi si sapranno...



anche 3DItalia QUI (http://hardware.multiplayer.it/) da credito a Dailytech...

..siamo tutti in trepidazione ma la verità si avvicina.....

P.:banned:

tony73
01-05-2007, 12:29
Adesso non so che tagan tu abbia, ma anche se fosse della serie u15 che credo sia la + scarsa, dovrebbe cmq avere circa 32-34A sui +12V. Cmq basta che verifichi sulla scheda tecnica appiccicata sopra. :p

Infatti prima non ho specificato,la mia paura deriva proprio dal fatto che ho l' U15 :D se avevo l'U22 non mi ponevo nemmeno il problema.

Lo scoprioro' da solo :D

nonikname
01-05-2007, 12:35
-1

:sbav:

Ma -1 a cosa???
A me in negozio , i listini la danno per il 14 maggio: HD2900XT 549$ mentre per la HD2600 se ne riparlerà a fine giugno...:rolleyes:

Dexther
01-05-2007, 12:36
il tagan u15 ha 35A sulla +12....direi che dovrebbe farcela :D

Dexther
01-05-2007, 12:36
Ma -1 a cosa???
A me in negozio , i listini la danno per il 14 maggio: HD2900XT 549$ mentre per la HD2600 se ne riparlerà a fine giugno...:rolleyes:

alla presentazione :O:D

A.L.M.
01-05-2007, 12:39
HD2900XT 549$

Fonte? :mbe:
Ma soprattutto, prezzi al produttore o al cliente finale?

tony73
01-05-2007, 12:41
549$?!? :mbe: forse la XTX..

+Lonewolf+
01-05-2007, 12:42
se costa quella cifra blu x me può rimanere sugli scaffali....

tony73
01-05-2007, 12:43
il tagan u15 ha 35A sulla +12....direi che dovrebbe farcela :D

Meglio aver paura che buscarne :D a comprare un ALI nuovo sono sempre in tempo,ma comprarlo dopo l'arrivo della scheda,quando avverra',sarebbe catastrofico :eek:

cmq se basta tanto meglio ;)

nonikname
01-05-2007, 12:44
Fonte? :mbe:
Ma soprattutto, prezzi al produttore o al cliente finale?

Iva inclusa... ;)

nitroin
01-05-2007, 12:44
se costa quella cifra blu x me può rimanere sugli scaffali....

Anche per me...ma non c'è nulla di certo!

Kharonte85
01-05-2007, 12:46
Ma -1 a cosa???
A me in negozio , i listini la danno per il 14 maggio: HD2900XT 549$ mentre per la HD2600 se ne riparlerà a fine giugno...:rolleyes:
Di sicuro, visto che la data di inizio commercializzazione è quella...

Non male il prezzo! :sofico:


:mbe:

Defragg
01-05-2007, 12:48
il tagan u15 ha 35A sulla +12....direi che dovrebbe farcela :D

avoja :D

A.L.M.
01-05-2007, 12:48
Iva inclusa... ;)

Aspetta, ma sono quindi i prezzi al cliente che tu fai pagare. Ma se per esempio tu hai una cpu che nello stesso listino che costa, mettiamo, 200$, il cliente finale pagherà 200€ o l'equivalente in euro (cioè meno di 200€)? :mbe:

tony73
01-05-2007, 12:49
Ma se sono 549$ in Italia quanto la paghiamo?!? mah! a me pare strano..