PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 [23] 24 25 26 27 28 29 30 31

appleroof
04-05-2007, 17:23
quindi se ti dicessi che sto seriamente pensando alla 8800GTS 320MB ti stupiresti? :p

no perchè anche io sto seriamente pensando alla 2900xt :eek: :asd: (non è vero se non si fosse capito, per ora la mia credo proprio che non la cambio, :D )


eh beh, speriamo (come disse il mosconi)
[niente, ormai sono fumato] :asd: :asd:

bYeZ!

certo che speriamo (e sicuramente per ora è molto più che una speranza), un monopolio Intel per cpu e Nvidia per gpu sarebbe da spararsi ;)

appleroof
04-05-2007, 17:24
Alan Wake esce il 2008... :)
Ovviamente l'anno prossimo ne usciranno un sacco: proprio oggi ho letto del prossimo Splinter Cell. ;)

Ero rimasto all'autunno 2007...:rolleyes:

A.L.M.
04-05-2007, 17:29
Bioshock è dx9 ...:(

Beh, se i tizi di 2KGames non dicono balle, Bioshock è DX10. ;)
http://blogs.ign.com/Irrational_Games/2007/05/02/53775/ :read:

Tra l'altro è basato su UE3, come Unreal 2007, che avevo dimenticato di includere nella lista dei giochi di quest'anno (anche se non è sicuro, mentre gli altri sì). ;)

Mister Tarpone
04-05-2007, 17:32
AVVISO X TUTTI I POSSESSORI DI FEAR COMBAT E PRESI DA R600 :D
C'E' UN "PLAYER" DAL NICK PALESEMENTE RICONOSCIBILE CHE STA UTILIZZANDO LA HD 2900 XT IN OC....ED E' ITALIANO..... LA STA TESTANDO AL TOP DELLA RISOLUZIONE.... CHIEDETE A LUI.... :p

è vero?? e che nick avrebbe??
mah..........

Kharonte85
04-05-2007, 17:34
Beh, se i tizi di 2KGames non dicono balle, Bioshock è DX10. ;)
http://blogs.ign.com/Irrational_Games/2007/05/02/53775/ :read:

Tra l'altro è basato su UE3, come Unreal 2007, che avevo dimenticato di includere nella lista dei giochi di quest'anno (anche se non è sicuro, mentre gli altri sì). ;)
cacchio quando lo dicevo io che era dx10 e tutti mi dicevano che era dx9 non parlavano loro...:mad: grazie mi hai dato una bella notizia...:D
è vero?? e che nick avrebbe??
mah..........
Potresti essere anche tu...visto che tenti di scagionarti con questa mossa da bar...:what:

DakmorNoland
04-05-2007, 17:35
certo che speriamo (e sicuramente per ora è molto più che una speranza), un monopolio Intel per cpu e Nvidia per gpu sarebbe da spararsi ;)

Scusa eh ma se continui a comprare schede nvidia, poi non ti lamentare! :asd: :asd: :asd:

Mister Tarpone
04-05-2007, 17:35
no perchè anche io sto seriamente pensando alla 2900xt :eek: :asd: (non è vero se non si fosse capito, per ora la mia credo proprio che non la cambio, :D )


m'era preso un colpo!!! :eek:

:asd:

Nos89
04-05-2007, 17:40
Beh, se i tizi di 2KGames non dicono balle, Bioshock è DX10. ;)
http://blogs.ign.com/Irrational_Games/2007/05/02/53775/ :read:

Tra l'altro è basato su UE3, come Unreal 2007, che avevo dimenticato di includere nella lista dei giochi di quest'anno (anche se non è sicuro, mentre gli altri sì). ;)

si ma l'U3 e cmq basato su Dx9 e quindi non in grado di sfruttare tali schede.anche perchè gia Rainbow six Vegas e basato su codesto motore grafico

Mister Tarpone
04-05-2007, 17:40
Potresti essere anche tu...visto che tenti di scagionarti con questa mossa da bar...:what:

ma magari l'avessi io sta scheda!!!! :D

invece un c'ho manco i soldi per comprarmela :asd:

A.L.M.
04-05-2007, 17:41
cacchio quando lo dicevo io che era dx10 e tutti mi dicevano che era dx9 non parlavano loro...:mad: grazie mi hai dato una bella notizia...:D

Potresti essere anche tu...visto che tenti di scagionarti con questa mossa da bar...:what:

Non vorrei eccedere nell'OT (ma comunque stiamo parlando di applicazioni per R600 :D ), ma se date un'occhiata al video che c'è nell'articolo che ho postato, rimarrete a bocca aperta: mai visto l'acqua ed il pavimento resi in quella maniera in un gioco... :eek:
IMHO in Bioshock la R600 potrebbe avere qualche vantaggio, visto che comunque dovrebbe essere solo per PC e XBox360... Ecco perchè parlavo dell'importanza dei test su R6Vegas... Se già in un gioco DX9 basato sull'UE3 una HD2900 XT andasse come una GTX, sarebbe un'ottima premessa per i giochi DX10 basati sullo stesso motore grafico, no?

A.L.M.
04-05-2007, 17:43
si ma l'U3 e cmq basato su Dx9 e quindi non in grado di sfruttare tali schede.anche perchè gia Rainbow six Vegas e basato su codesto motore grafico

Mah, quello non è detto. Non è un motore nato per le DX10, ma lo diventerà sicuramente (Bioshock, Splinter Cell: Conviction, ecc...). ;)

Kharonte85
04-05-2007, 17:45
Non vorrei eccedere nell'OT (ma comunque stiamo parlando di applicazioni per R600 :D ), ma se date un'occhiata al video che c'è nell'articolo che ho postato, rimarrete a bocca aperta: mai visto l'acqua ed il pavimento resi in quella maniera in un gioco... :eek:
IMHO in Bioshock la R600 potrebbe avere qualche vantaggio, visto che comunque dovrebbe essere solo per PC e XBox360... Ecco perchè parlavo dell'importanza dei test su R6Vegas... Se già in un gioco DX9 basato sull'UE3 una HD2900 XT andasse come una GTX, sarebbe un'ottima premessa per i giochi DX10 basati sullo stesso motore grafico, no?
Si' l'ho viisto il video ma se vuoi rimanere di m. scaricati quello da 380mb (circa)...dovrebbe esserci su HWUPgrade...;)

Probabile...certo che l'UE3 (dx9/10) in dx9 è pesante forte...:mc:

appleroof
04-05-2007, 17:46
Scusa eh ma se continuo a comprare schede nvidia, poi non ti lamentare! :asd: :asd: :asd:

:confused:

DakmorNoland
04-05-2007, 17:47
Mah, quello non è detto. Non è un motore nato per le DX10, ma lo diventerà sicuramente (Bioshock, Splinter Cell: Conviction, ecc...). ;)

Sì ma se è nato DX9 ci metteranno due features DX10 in croce e poi spacceranno giochi al 90% DX9 come giochi DX10. Hanno fatto lo stesso per i primi giochi DX9, che delle nuove librerie sfruttavano quasi niente.

:confused:

Volevo dire "continui" e non "continuo". :p

belin
04-05-2007, 17:48
...ragazzi voi scrivete veramente troppo il venerdì pomeriggio...devo scegliere se licenziarmi o leggervi.................ok, vi leggo. :D

Confermo: i video di Bioshock sono da :eek:

appleroof
04-05-2007, 17:52
Volevo dire "continui" e non "continuo". :p

scusa eh? ma ari:confused:

...ragazzi voi scrivete veramente troppo il venerdì pomeriggio...devo scegliere se licenziarmi o leggervi.................ok, vi leggo. :D

Confermo: i video di Bioshock sono da :eek:

anche per me sono da ultrasbavo...:eekk:

ale0bello0pr
04-05-2007, 17:56
è vero?? e che nick avrebbe??
mah..........

ok ho capito lo stai cercando :D si chiama "HD 2900 XT is RUN"
ora basta OT ;)

appleroof
04-05-2007, 18:23
siamo solo al primo step di chip dx10.
G7x e R5x0, concettualmente, sono molto differenti; tu ti sentiresti di affermare che il secondo sia superiore con tutte le applicazioni e in ogni condizione di impiego?

Cmq per tutte le domande su come potrebbero andare G80 ed R600 in dx10 credo sia tutto perfettamente sintetizzato in questo post ;)

DVD2005
04-05-2007, 18:30
Cmq per tutte le domande su come potrebbero andare G80 ed R600 in dx10 credo sia tutto perfettamente sintetizzato in questo post ;)

e ho come l'impressione che quando saranno diffusi i giochi DX10 chi appartiene alla categoria degli hard gamer non avrà nel case ne G80 ne R600.

TecnoWorld8
04-05-2007, 18:35
ma da come parlate sembra che queste schede vadano bene solo per i giochi che non sono ancora usciti :) ricordatevi che per giocare ad altissime res con i giochi attuali, servono cmq già queste schede

wiltord
04-05-2007, 18:37
e ho come l'impressione che quando saranno diffusi i giochi DX10 chi appartiene alla categoria degli hard gamer non avrà nel case ne G80 ne R600.

non me la sento di essere così categorico, soprattutto per quanto riguarda R600, le premesse sono molto, molto interessanti.

vedremo cmq. :)

appleroof
04-05-2007, 18:38
e ho come l'impressione che quando saranno diffusi i giochi DX10 chi appartiene alla categoria degli hard gamer non avrà nel case ne G80 ne R600.

Assolutamente d'accordo, se parliamo dei fulldx10 (metà 2008?) ;)

ma da come parlate sembra che queste schede vadano bene solo per i giochi che non sono ancora usciti :) ricordatevi che per giocare ad altissime res con i giochi attuali, servono cmq già queste schede

Bè, naturalmente, io certo non lo dimentico :D però è chiaro che è l'argomento dx10 ad attirare di più ora come ora, almeno a me :)

TecnoWorld8
04-05-2007, 18:40
io non ho ancora ben chiaro quali saranno i reali benefizi che le DX10 porteranno dal punto di vista delle visuali in un gioco. a questo proposito, secondo me, le dx9 sono state rivoluzionarie...

appleroof
04-05-2007, 18:44
io non ho ancora ben chiaro quali saranno i reali benefizi che le DX10 porteranno dal punto di vista delle visuali in un gioco. a questo proposito, secondo me, le dx9 sono state rivoluzionarie...

Se parliamo di shading in generale, credo che nella prima fase sia solo un affinamento di quanto abbiamo visto finora, le vere novità subito avvertibili sono quelle legate alla fisica e ai geometry shaders

se non lo hai già fatto ti consiglio di dare uno sguardo qui:

http://www.tomshw.it/graphic.php?guide=200611081

;)

Nos89
04-05-2007, 18:47
e ho come l'impressione che quando saranno diffusi i giochi DX10 chi appartiene alla categoria degli hard gamer non avrà nel case ne G80 ne R600.

non credo cmq anche chi aveva G70 su DX9 cmq giocava + che degnamente anche se G71 e R580 erano + veloci quindi se si accetta qualche piccolo compromesso non penso si avranno problemi

appleroof
04-05-2007, 18:53
non credo cmq anche chi aveva G70 su DX9 cmq giocava + che degnamente anche se G71 e R580 erano + veloci quindi se si accetta qualche piccolo compromesso non penso si avranno problemi

Infatti si riferiva agli hard gamers :D

anche io credo che (partendo dal punto di vista di oggi, poi cambiamenti in corsa si possono sempre fare :D ) terrò la scheda attuale per almeno un altro annetto, però se ho capito cosa intendeva ha perfettamente ragione, secondo me

TecnoWorld8
04-05-2007, 18:59
Se parliamo di shading in generale, credo che nella prima fase sia solo un affinamento di quanto abbiamo visto finora, le vere novità subito avvertibili sono quelle legate alla fisica e ai geometry shaders

se non lo hai già fatto ti consiglio di dare uno sguardo qui:

http://www.tomshw.it/graphic.php?guide=200611081

;)

grazie per il link, mi mancava!!!

bluefrog
04-05-2007, 19:49
Bioshock utilizza il Vengeance engine 2, dell'UE3 soltanto alcune cose.

Enhanced version of Vengeance engine

Known at first as the Vengeance engine 2, this was an enhanced version of the Vengeance engine, based on the Unreal Engine 2.5. As this engine was developed for the game Bioshock, the engine has become known as the "BioShock engine". Later, the BioShock engine was changed to use the Unreal Engine 3.0. but BioShock does not use all of Unreal Engine 3.0's features. As it only upgraded the Unreal Engine 3.0 framework and UnrealEd Toolsets.

Per maggiori info andate qui: http://en.wikipedia.org/wiki/Vengeance_engine

dantes76
04-05-2007, 20:15
comparativa fra i vari engine, certo che l'unreal engine, rulla:D

http://img120.imageshack.us/img120/3885/ue3vsalluc2hh4.th.gif (http://img120.imageshack.us/my.php?image=ue3vsalluc2hh4.gif)

ale0bello0pr
04-05-2007, 20:23
mmm l'Unreal Engine superiore al Crytec engine2 ? strano :confused:

Defragg
04-05-2007, 20:28
mmm l'Unreal Engine superiore al Crytec engine2 ? strano :confused:

già :wtf:

mi pare decisamente improbabile :mbe: :stordita:

dantes76
04-05-2007, 20:29
mmm l'Unreal Engine superiore al Crytec engine2 ? strano :confused:

http://incrysis.com/forums/viewtopic.php?id=3135

Nos89
04-05-2007, 20:41
già :wtf:

mi pare decisamente improbabile :mbe: :stordita:

bhe non è detto secondo me ha ancora molto da dire l'Unreal Engine 3

Soulbringer
04-05-2007, 21:06
Si sa nulla sulla lunghezza della scheda hd2900xt?all'inizio si diceva 9,5 pollici è vero?

Nos89
04-05-2007, 21:09
Si sa nulla sulla lunghezza della scheda hd2900xt?all'inizio si diceva 9,5 pollici è vero?

si dice che sia 1cm + lunga della Geforce 8800GTS.quindi inferiore alla GTX

Defragg
04-05-2007, 21:14
bhe non è detto secondo me ha ancora molto da dire l'Unreal Engine 3

alt!

io non ho sminuito l'UE3, solo credo che il CE2 sia decisamente più avanzato ;)

A.L.M.
04-05-2007, 21:16
Bioshock utilizza il Vengeance engine 2, dell'UE3 soltanto alcune cose.

Enhanced version of Vengeance engine

Known at first as the Vengeance engine 2, this was an enhanced version of the Vengeance engine, based on the Unreal Engine 2.5. As this engine was developed for the game Bioshock, the engine has become known as the "BioShock engine". Later, the BioShock engine was changed to use the Unreal Engine 3.0. but BioShock does not use all of Unreal Engine 3.0's features. As it only upgraded the Unreal Engine 3.0 framework and UnrealEd Toolsets.

Per maggiori info andate qui: http://en.wikipedia.org/wiki/Vengeance_engine

Giusto per chiudere il discorso, è vero che alcune features di UE3 non vengono usate, ma è anche vero che stando a quanto diceva uno spokesperson ufficiale di Irrational Games, quelle parti di motore sono state sostituite con porzioni proprietarie, come la parte dell'engine che si occupa del rendering e degli effetti dell'acqua. Non mi pare che il risultato sia da buttar via... :sofico:

DVD2005
04-05-2007, 21:21
Infatti si riferiva agli hard gamers :D

anche io credo che (partendo dal punto di vista di oggi, poi cambiamenti in corsa si possono sempre fare :D ) terrò la scheda attuale per almeno un altro annetto, però se ho capito cosa intendeva ha perfettamente ragione, secondo me

hai capito bene ;)

A.L.M.
04-05-2007, 21:25
Presunti test in Specviewperf v9 con quella che sembrerebbe essere una XTX (a dispetto di quanto riportato dal CCC):

http://img405.imageshack.us/img405/2517/x2900xt102401319944ik7.png

http://img405.imageshack.us/img405/5362/x2900xt10240231a133qw8.png

La risoluzione non si sa, però lo schermo sembra che sia un 17", quindi non credo sarà molto più alta di 1280x1024... :stordita:

bluefrog
04-05-2007, 21:31
Giusto per chiudere il discorso, è vero che alcune features di UE3 non vengono usate, ma è anche vero che stando a quanto diceva uno spokes person ufficiale di Irrational Games, quelle parti di motore sono state sostituite
con porzioni proprietarie, come la parte dell'engine che si occupa del rendering e degli effetti dell'acqua. Non mi pare che il risultato sia da buttar via... :sofico:

Nooo, tutt'altro, dai video il risultato finale è impressionante! :eek:

GabrySP
04-05-2007, 21:37
Presunti test in Specviewperf v9 con quella che sembrerebbe essere una XTX (a dispetto di quanto riportato dal CCC):


La risoluzione non si sa, però lo schermo sembra che sia un 17", quindi non credo sarà molto più alta di 1280x1024... :stordita:

Test molto interessanti (se fossero veri ;) )

In alcuni test è decisamente più lenta di una X1X00 moddata a FireGL , in altri è anche 4 volte più veloce :eek: (soprattutto fa impressione l'ultimo test)

E' così strano che potrebbe essere vero.

bluefrog
04-05-2007, 21:38
Presunti test in Specviewperf v9 con quella che sembrerebbe essere una XTX (a dispetto di quanto riportato dal CCC):

cut

Cacchio, ma uscirà davvero sta XTX? Perchè sinceramente i 512mb della XT per i futuri titoli dx10 potrebbero rivelarsi un po' pochini...

ale0bello0pr
04-05-2007, 21:51
edit

bluefrog
04-05-2007, 21:53
edit:stordita:

A.L.M.
04-05-2007, 21:54
ehm .TXT(e non XTX) = file di testo.... no vi prego... nn ditemi che.... :rotfl:
:Prrr:

No, il fatto che non sia una XT lo si capisce dai clocks delle memorie e dalla ram (1024MB GDDR4). Poi potrebbe anche essere un fake...

ale0bello0pr
04-05-2007, 21:54
all'inizio ho pensato la stessa cosa:D :D ma se guardi sotto c'è scritto 1024 MB , DDR4...le caratteristiche della XTX ;)

infati mi sn accorto e ho editato:D sorry...:)
ok un mistero è stato svelato...:D

+Lonewolf+
04-05-2007, 22:07
infati mi sn accorto e ho editato:D sorry...:)
ok un mistero è stato svelato...:D

libera pvt

ale0bello0pr
04-05-2007, 22:11
libera pvt

we i privati so liberissimi :read:

A.L.M.
04-05-2007, 22:12
Ad ulteriore conferma del bundle di Valve, la pagina d'accesso per scaricare i giochi in questione con Steam è già up...

http://www.steampowered.com/activateATI/

http://img231.imageshack.us/img231/3479/atiradeon05sw8.jpg

Tenebra
04-05-2007, 22:56
Ad ulteriore conferma del bundle di Valve, la pagina d'accesso per scaricare i giochi in questione con Steam è già up...


Per quanto io non vada pazzo per le ultime uscite di Valve, si sa se questo bundle è riservato alla 2900 o sarà incluso anche nelle 2600?

belin
05-05-2007, 00:20
No, il fatto che non sia una XT lo si capisce dai clocks delle memorie e dalla ram (1024MB GDDR4). Poi potrebbe anche essere un fake...

...oppure un'altra versione di XT con 1 Gb gddr4 @ 2000 Mhz...io la butto lì:

XT 750/1650 512 Mb gddr3 @ 399$

XT 750/2000 1 Gb gddr4 @ 499$

XT "oveclock" con frequenze più alte e dissy in "stile Sapphire" @ ???$

:fiufiu:

TecnoWorld8
05-05-2007, 00:30
e XTX a 65nm in uscita tra 2 mesi?

belin
05-05-2007, 00:33
e XTX a 65nm in uscita tra 2 mesi?

Tra 6 mesi.

;)

tony73
05-05-2007, 00:36
...oppure un'altra versione di XT con 1 Gb gddr4 @ 2000 Mhz...io la butto lì:

XT 750/1650 512 Mb gddr3 @ 399$

XT 750/2000 1 Gb gddr4 @ 499$

XT "oveclock" con frequenze più alte e dissy in "stile Sapphire" @ ???$

:fiufiu:

Mie tutte e 3 :sofico:

TecnoWorld8
05-05-2007, 00:39
beh, se passassero almeno 6 mesi da questa ad una a 65nm, non mi "offenderei", nel caso acquistassi ora quella da 400 Euro. Sarebbe fisiologico.

Mi incavolerei due righe se uscisse prima di settembre, invece :mad:

MonsterMash
05-05-2007, 00:48
Pensate che un attimo fa stavo per pre-acquistarne una da uno shop tedesco per 380 spese comprese.
Poi però ho deciso di ascoltare quella vocina che mi diceva: "non hai più soldi nella postepay!"... e ho rimandato la cosa a quando saprò qualcosa di certo su questa scheda... o a quando avrò ricaricato la postepay

TecnoWorld8
05-05-2007, 00:50
non era male il prezzo, se inclusa la spedizione. penso che però qui si troverà a poco più di quella cifra

ale0bello0pr
05-05-2007, 02:01
...oppure un'altra versione di XT con 1 Gb gddr4 @ 2000 Mhz...io la butto lì:

XT 750/1650 512 Mb gddr3 @ 399$

XT 750/2000 1 Gb gddr4 @ 499$

XT "oveclock" con frequenze più alte e dissy in "stile Sapphire" @ ???$

:fiufiu:


http://www.xtremesystems.org/forums/images/smilies/smackbum.gifhttp://www.xtremesystems.org/forums/images/smilies/slap.gifhttp://www.xtremesystems.org/forums/images/smilies/nono.gif

bladerunner86
05-05-2007, 08:39
...oppure un'altra versione di XT con 1 Gb gddr4 @ 2000 Mhz...io la butto lì:

XT 750/1650 512 Mb gddr3 @ 399$

XT 750/2000 1 Gb gddr4 @ 499$

XT "oveclock" con frequenze più alte e dissy in "stile Sapphire" @ ???$

:fiufiu:

scusami allora quale sarebbe la differenza tra questa XT 750/2000 1 Gb gddr4 @ 499$ e una xtx???? la xtx secondo vari rumor non è altro che una 2900xt con una 1gb gddr4. che non dovrebbe uscire a breveper due ragioni 1) prestazioni quasi identiche a quelle di una 2900xt 2) costo elevatissimo delle memorie gddr4

josefor
05-05-2007, 08:59
Ho trovato in preordine una 2900 a 93€ lol, vabbè sarà un errore, o forse è solo il costo della prenotazione doppio lol....

A.L.M.
05-05-2007, 09:05
scusami allora quale sarebbe la differenza tra questa XT 750/2000 1 Gb gddr4 @ 499$ e una xtx???? la xtx secondo vari rumor non è altro che una 2900xt con una 1gb gddr4. che non dovrebbe uscire a breveper due ragioni 1) prestazioni quasi identiche a quelle di una 2900xt 2) costo elevatissimo delle memorie gddr4

Già, il problema è che molti hanno dei sample anche vecchiotti (di un paio di mesi fa...).
Comunque l'ipotesi di belin è plausibile. Ci potrebbe essere comunque una XT 1GB GDDR4 (e 499€ credo sarebbe un prezzo accettabile) e nel mezzo, tra 399€ e 499€, le versioni OC di fabbrica della XT 512MB.
La XTX secondo me uscirà prima o poi, ma magari si chiamerà HD2950 XTX (quindi sarà basata su R650), e sarà a 65nm... :)

EDIT: secondo dei forum cinesi la XT a 1GB è una versione OEM. ;)

La settimana prossima, NDA o no, ne sapremo già di più, secondo me.

Su XtremeSystems lo stesso utente dello Specviewperf (quello della XT 1GB GDDR4) ha postato dei risultati al 3DMark05/06. Però sembra che avesse dei drivers vecchi, e in un primo momento non riuscisse a far partire nessun bench. Ci è riuscito solo col "trucco" del -nosysteminfo: comunque i punteggi sembrano bassi (anche ad altri membri del forum), proprio a causa del problema di drivers...
Ovviamente potrebbero pure essere fakes (visto la "strana" scheda).

P.S.: le temperature della GPU non sembrano alte, anzi.

http://www.iamxtreme.net/video/r600/2900XT1024_04.PNG

http://www.iamxtreme.net/video/r600/2900XT1024_03.PNG

A.L.M.
05-05-2007, 09:15
Altri presunti commenti sulla tecnologia delle AMD-ATi HD 2000.
Non so però quanto il sito sia affidabile... Ho evidenziato i punti fondamentali dell'articolo.

After a week of time "off" to travel around Europe to acquire as much data as possible, we're back on our R(V)6xx track. A lot of interesting things happened in the last week and we decided to share them with you. After the launch event in Tunis, everything calmed down a little bit and we were able to acquire more info about the actual products we already covered. Ready to go back in the R(V)6xx world?
Being the first on the market with mostly 65nm design could turn out to be a first among many good things about this product series. We heard a lot of people talking about incredible overclockability of these chips, given the right cooling considering the fact that top-of-the-line products are pretty power-hungry. It seems as though AMD will not launch the 1GB XTX version in 90/80/whatever nm process at all, but rather wait for the 65nm process to be ready for the masses. Smart decision, if we might add. 512-bit ringbus memory controller is also very much "to credit" for the incredible bandwidth Radeon HD 2900 cards have, but we'll get back to that later. There are also these pretty high clock speeds and other stuff to discuss...

Around 700 million transistors providing up to 320 superscalar stream processors, programmable Tessellation Unit, AVIVO, UVD, CrossFire support, these are the main things we'll cover for the Terms 'n' Technology start. These chips' roots are clearly in the Xenos design (XBOX 360), but with new dispatch processor and, of course, superscalar ALU's - dedicated branch execution units and texture address processors. Shaders are actually 5-Way, helping R600 to deliver close to 500 GigaFLOPs per GPU (475), or close to a TeraFLOP in CrossFire (950 GigaFLOPs). This makes the chip incredibly powerful, having more then 1 GigaFLOP/mm2. Texture units are also improved, being able to do 64-bit HDR textures at full speed and 128-bit FP textures at half speed.

Having fully distributed memory bus (512-bit) with more then 100GB/s per second bandwidth and eight 64-bit memory channels is pretty impressive. Vertex cache is also 8x larger than on X1950, which is a significant improvement, and all of the shaders are capable of doing geometry and vertex processing, and AMD claims that power-wise, they are able to pull out up to 10x more vertex power compared to X1950 and up to 50x more geometry power compared to what AMD calls "fastest competing DirectX 10 GPU's". Go figure that one out. We're really eager to see all of this in action later on today and in the next couple of days, tortured by high AA and AF settings and high resolutions. Theoretically, this should provide more gentle performance-drop curve, definately better then on previous chip generation.

Xenos heritage also means that the ATI Radeon HD 2000 series GPU's have a new programmable Tesselation Unit, which we "touched" in our previous articles. Benefits of this fully programmable unit should be pretty huge, especially when dealing with geomtery data, which should in real life mean more details, more realism, and overall better picture quality. We've been blindly staring at the picture quality for weeks now, and it's pretty incredible. For example, when rendering people's faces, tesselation unit can do a lot of stuff - manage displace mapping, manipulate morph targets, deformation, animation data etc. AMD hopes to change the difference between the cinema-type rendering and in-game type rendering to close-to-equal-quality status. Combined with huge bandwidth these chips have, we're yet to see some interesting things happening. More flexible AA features should also help, while the max resolution is set to 2560x2048. Of course, physics is supported, as well. Also, our "favorite" thing about high-end Radeons of the previous generations, the master card - is gone. Instead, you have two internal very much SLI-alike CrossFire connectors. In not so-distant future, you'll be able to do a lot of cool and interesting things with digital or webcams, and for example pictures on your hard drives, but let's leave it at that. We had a nice chat about that quite awhile ago with one of AMD's officals. AMD promises very good CrossFire scaling, which we will check very soon.

Let's talk about multimedia capabilities of these new cards for a while. R(V)6xx has UVD (Universal Video Decoder) and AVP (Advanced Video Processor) on silicon. If we go back to ATI AVIVO technology, no one can really say that AVIVO wasn't a a nice addon to previous card generations. Being a platform that enhances video quality it became widely popular because it really kicked ass. Hardware acceleration of H.264 became a basis for Blu-Ray and HD-DVD playback even on a bit "older" machines with X1xxx card series and, for example, those cards some of us are still crying for - All in Wonder (X1900) and 2006 PCI Express.

On top of that, we have the built-in sound chip. And we're not talking about some lame stereo chip, but a full AC3 5.1 surround chip so you can have sound through HDMI. We really like this feature and respect it, but at the same time we expect that only the mainstream/low-end parts will have some sales benefit because of this. If we're talking about HD content and watching HD content on big HD-compatible displays (for example - HD-compatible plasma screens) we just don't see the point of buying a high-end card, putting it inside a computer and watch movies on plasma screen with a pretty loud computer that consumes an awful lot of space. This just might be the reason why NVIDIA decided to allocate additional resources for HD in their 8600 and 8500 cards. We think that the way Imageto go with that is to have a small barebone/desktop-alike ultra-quiet-to-silent PC on the shelf, with HD-DVD and Blu-Ray drive inside (combo drives, please!) and - off you go. It seems reasonable to assume that Radeon HD 2600 cards will become pretty popular in these multimedia-type PC's and drive some serious sales. With competitive pricing AMD has been talking about, we see some serious things happening on that part of the market. If you want to know more about this, be sure to check out our article about HD content tomorrow.

Let's go back to advanced stuff - for example, stream computing. If you remember AMD/ATI's Stream Processor (on the picture to the right), then you probably remember what's CTM (Close To Metal). This is a re-packaged X1900 card (R580 core) with 1GB of GDDR3 memory and its price was $2,599 at launch time (November 2006). New chips also support CTM, which is actually a way to use huge floating point resources of GPU's to process very complex models and simulations. For example, we see quite a few applications that could (ab)use GPU's tremendeous computation power - CFD (Computational Fluid Dynamics), CAD (Computer Aided Design), chemical and medical industry (MRI, CT, ...) etc. If this means that we're yet to expect a new Stream Processor as a separate product, we're yet to see. But both floating point and integer operation support on these 320 stream processors as well as the IEEE 754 support certainly raises a few eyebrows.

This audio-chip thingy deserves a special treatment in our article, for various reasons. Vista Premium Logo actually demands the following - to have the audio path that's completely integrated and HDCP-protected. We're not here to go into in-depth discussion about our way of thinking about Vista and HDCP, but there are some interesting features coming out of it. The basic one is to have video and audio through HDMI connector, which is really cool. No need to have a whole bunch of cables doing practically the same thing when you can do all of that with just one cable. Radeon HD 2000 series also has a special active DVI-to-HDMI adapter that you can use to carry audio data as well, which is a neat Imagefeature. The usual DVI-to-HDMI adapters can't do this. This adapter is also compatible with the usual DVI outputs so you can do DVI-to-HDMI on regular cards without the sound part, as well. As far as the basic audio data is concerned, the built-in chip supports 32kHz, 44.1kHz and 48kHz 16-bit output. For XP, you have the AMD's driver and for Vista, Microsoft's UAA driver. When I actually checked and gathered all I could find about R600 there was just one question mark over my head. From what I could find out, there's no 24-bit support for 96kHz or 192kHz audio, which is both good and bad at the same time. Let me elaborate this thought.

Imagine the following situation - you're watching a movie and you have your nice plasma TV with a DVD player and 5.1 surround system. Pretty cool when you're watching a movie, right? Almost pointless in games, mostly extremely unusable when you're watching a concert. And unbeliveably unusable when you're listening to your own Audio CD or MP3 collection. If you do some kind of surround emulation, you end up hearing something that has almost nothing to do with the original sound. But what we're talking about here are actually movies, so probably the only situation where you'll actually use your 5.1 sound system. Before someone throws a hard object to my head and starts yelling "YESSS, BUT XYZ CONCERT BY ARTIST 'W' SOUNDS SO AMAZING IN 5.1", I will actually make my point right now. I'm a huge DVD fan, especially concerts since I'm a musician, and so far I came across only about two or three concert DVD's out there that actually sound good in 5.1 surround. And don't even get me started on classical music and/or jazz, that would be a pretty pointless discussion. If anyone wants to flame about this one or anything related to R600, feel free to join us on our forum. Back to our point - HD-DVD movies. For HD-DVD playback, you must have TrueHD support (it's mandatory) while it's optional for Blu-Ray. What I was actually thinking was this - ok, R(V)6xx cards don't have 96 kHz@24-bit support, so you must have something to "fallback" on. I was thinking about fallback to for example Dolby Digital or something like that, since it's a pretty common audio track on DVD's and HD-DVD's on the market. It would, of course, have to be a track with 48kHz sound, which is more then enough for a movie. Again, let's make this clear - I'm not saying this is a bad thing because it isn't, 48kHz is more then enough). Somewhere in the back of my mind was a thought that maybe, just maybe R(V)6x chips might be doing some internal transcoding/downmixing to stereo or transcoding from TrueHD to LPCM or similar codec to a more "suitable" format. It would also have to be connected to the HDMI standard that's supported in hardware. Is it HDMI 1.1? 1.2? 1.3? If there's HDMI 1.3 support, there are absolutely no bandwdidth constraints for doing 96kHz@24-bit sound TrueHD through HDMI. So, we did the only thing we could - checked with AMD. What we found out is "on par" with our expectations, and it goes like this: HDMI 1.2 is supported, there's no 96kHz sound support. Hardware doesn't do any audio transcoding, this is actually performed by software that you use for HD-DVD playback. Since there are not that many HD-DVD titles out there with Dolby TrueHD support, this shouldn't be a problem, and even those have Dolby Digital support so - no problem. And you know what? We agree. On the other hand, we should note that it would be extremely difficult to even test this at this point because - quite frankly - HD-DVD drives for PC's are very rare and hard to get. Again, we think that the only possible situation where HDMI connector is going to be a factor right now is if someone does a MM PC (barebone or something) for his living room and has a plasma/LCD TV screen with HDMI connector. HDMI connectors are very rare on LCD monitors so no much sense there.

R600 is pretty fascinating technology-wise, a bit more advanced then we initially assumed. The XT version that should be in e-tail and retail very soon will make a "road" for the XTX card that's supposed to come later when the 65nm process is good enough, as well. The cards look impressive, they're very power-hungry, the cooler isn't so monstruously loud as we expected, internal CrossFire connectors are there as well as the new 8-pin PCI-Express power connector so - quite the party ahead of us. Expect more news very soon. Like - next week, full R600 reviews and, of course, some CrossFire testing, as well. We wouldn't want to leave you in the dark...


http://it-review.net/index.php?option=com_content&task=view&id=1310&Itemid=91&limit=1&limitstart=4

bladerunner86
05-05-2007, 09:39
di tutti questi rumors la sintesi potrebbe essere questa:
1)le prestazioni della x2900xt in directx 9.c sono superiori alla gts 640 ma inferiori alla gtx, mentre in ambito direct10 nessuno si può pronunciare per l' assenza dei giochi o demo.comunque alcuni presagiscono che ati sembrerebbe in vantaggio sull' hardware per il suo lancio avvenuto con molto ritardo, mentre nvidia,dal canto suo, sta aiutando le software house allo sviluppo del software (come in Lost In Planet)
2)i consumi della Ati dovrebbero essere superioria quelli della gtx (almeno in full load) ma ciò non comprometterebbe l' installazione della scheda in un computer con un alimentatore di 500w di buona qualità ed efficienza
3)il prezzo dovrebbe non superare al lancio i 420/410 euro e dopo si aspetta un calo fisiologico dei prezzi con l' aumentare dell' offerta e il calo della domanda quindi ci dovremmo aspettare un prezzo molto simile alla gts 640 cioè intorno ai 380/390 euro.
4)l' overcloock della hd 2900xt dovrebbe presentare molte sorprese ma a scapito di consumi massimi veramente da record (anche se macano dati ufficiali siamo intorno ai 225W)


di sicuro dare un giudizio su questa scheda non sarà facile per corsini.
anche se il primo dato che emerge è che la r600 è stato unflop in directx.9 ora aspetto di essere sconfermato o dalla presentazione ufficiale o dai giochi in directx10.

yossarian
05-05-2007, 09:51
A proposito delle similitudini con R580, se non erro anche in quel caso le TU erano riunite in 4 gruppi (con le dovute differenze ). Possiamo quindi ipotizzare che 5*SP di R600 siano quello che per R580 erano le shader unit 2*(vec3+1), adesso in rapporto di 4:1 anzichè 3:1 con le TFU.

diciamo di si, almeno in linea di massima

In realtà bisognerebbe vedere anche come i thread vengono gestiti, in R580 il controllo era gestito se non erro per ogni gruppo di 3 shader unit. In R600 credo dovrebbe essere fatto per ogni cluster di 5 SP, anche se il fatto di avere una struttura "4-4-4-5" immagino indichi uno schema di controllo ben più complesso.
Anche l'"ultrathreaded dispatch processor" nello schema ricorda molto l'omonimo di R580 (anche se la complessità sarà sicuramente superiore)

il controllo era, anche su R5x0, a più livelli; un primo livello gestiva 512 thread da indirizzare ai 4 gruppi di alu (128 per ciascuno); all'interno di ogni gruppo, i thread erano gestiti dinamiicamente in base allo stato di occupazione delle alu.
Anche in R600 la gestione dei thread avviene su più livelli (e la prima ripartizione avviene sempre tra 4 gruppi). Ovviamente la complessità è maggiore (anche e non solo, perchè su R600 si dovranno gestire non solo le operazioni di pixel shading e texturing)


Guardando lo schema quindi abbiamo 4 blocchi principali da 80 SP, ossia 16 "shader unit" da 5 stream processors. Stando a quanto detto da Yoss, questi 16 gruppi a loro volta sono organizzati secondo una struttura 4x4 (per gestire 4 quads per gruppo, presumo). Ora, in R600 non so se le ogni TU "serva" uno dei 4 blocchi principali oppure siano totalmente ortgonali, ossia ogni TU possa servire tutti e 4 i blocchi. Ma credo che le modalità di accesso siano simili a quelle di R580, pur con le dovute differenze funzionali e al fatto che ora le Shader unit operano anche sui vertici.
è un'ipotesi probabile


le ROPS invece credo siano state completamente riviste.
si

tony73
05-05-2007, 09:58
di tutti questi rumors la sintesi potrebbe essere questa:
1)le prestazioni della x2900xt in directx 9.c sono superiori alla gts 640 ma inferiori alla gtx, mentre in ambito direct10 nessuno si può pronunciare per l' assenza dei giochi o demo.comunque alcuni presagiscono che ati sembrerebbe in vantaggio sull' hardware per il suo lancio avvenuto con molto ritardo, mentre nvidia,dal canto suo, sta aiutando le software house allo sviluppo del software (come in Lost In Planet)
2)i consumi della Ati dovrebbero essere superioria quelli della gtx (almeno in full load) ma ciò non comprometterebbe l' installazione della scheda in un computer con un alimentatore di 500w di buona qualità ed efficienza
3)il prezzo dovrebbe non superare al lancio i 420/410 euro e dopo si aspetta un calo fisiologico dei prezzi con l' aumentare dell' offerta e il calo della domanda quindi ci dovremmo aspettare un prezzo molto simile alla gts 640 cioè intorno ai 380/390 euro.
4)l' overcloock della hd 2900xt dovrebbe presentare molte sorprese ma a scapito di consumi massimi veramente da record (anche se macano dati ufficiali siamo intorno ai 225W)


di sicuro dare un giudizio su questa scheda non sarà facile per corsini.
anche se il primo dato che emerge è che la r600 è stato unflop in directx.9 ora aspetto di essere sconfermato o dalla presentazione ufficiale o dai giochi in directx10.

Sono tutti rumors e te hai postato solo quelli negativi,ci sono anche i rumors positivi e sono tutto il contrario di quelli postati da te;ERGO...aspettiamo una decina di giorni scarsi ;)

loperloper
05-05-2007, 10:09
purtroppo qualsiasi bench prima che esca la scheda è un possibile fake, quindi qualsiasi numero o caratteristica segnalata è da prendere con le pinze...
per fare un esempio, vedete come è semplice tirare su il risultato al 3dmark05 con il solo paint (certo qui ho esagerato di parecchio e i framerates non corrispondono manco :D) :
http://img243.imageshack.us/img243/746/kjwx5.jpg

mar81
05-05-2007, 10:11
strana immagine...

http://www.tagan.com/index.php?c_id=97

non ha una composizione un po' strana? quasi "artigianale"?

kartoshka
05-05-2007, 10:14
Raga ma della HD2600XT non si sa niente??

A.L.M.
05-05-2007, 10:19
Yossarian, invece cosa potresti dirmi in merito a questo?

Ma la tecnologia Fast14 non è solo per chip RISC? Ed R600 non è invece VLIW? :confused:

Le alu di R600 sono VLIW o RISC? Sono realizzate con Fast14? :confused:

belin
05-05-2007, 10:22
scusami allora quale sarebbe la differenza tra questa XT 750/2000 1 Gb gddr4 @ 499$ e una xtx???? la xtx secondo vari rumor non è altro che una 2900xt con una 1gb gddr4. che non dovrebbe uscire a breveper due ragioni 1) prestazioni quasi identiche a quelle di una 2900xt 2) costo elevatissimo delle memorie gddr4

...è una mia ipotesi, ed il senso (un pò) ce l'ha. La XTX non avrà frequenza 750 Mhz sul core. Una XT con 1 Gb di ram in proiezione futura ha il suo perchè. Il problema delle gddr4 non è il costo, ma la difficile disponibilità. Ricordati i 1000 Mhz, frequenza molto alta, ma tra 1000 e 750 ci sono 250 altre possibilità.

;)

bladerunner86
05-05-2007, 10:26
cmq la recensione della 2900xt è già uscita. basta che vi leggiate i commenti della 8800 ultra e le risposte di corsini.

http://www.hwupgrade.it/forum/showthread.php?t=1464096&page=3
leggetevi il commento 59 e il 95. valgono più di 200 pag di thread.

belin
05-05-2007, 10:42
AMD HD 2900XT tied three games, DX10 Congress!

Link all'articolo (http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcpop.com%2Fdoc%2F0%2F192%2F192401.shtml&langpair=zh%7Cen&hl=en&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)

http://img5.pcpop.com/ArticleImages/500x375/0/468/000468169.jpg

http://img5.pcpop.com/ArticleImages/500x375/0/475/000475038.jpg

http://img5.pcpop.com/ArticleImages/500x375/0/475/000475045.jpg


:)

A.L.M.
05-05-2007, 10:53
cmq la recensione della 2900xt è già uscita. basta che vi leggiate i commenti della 8800 ultra e le risposte di corsini.

http://www.hwupgrade.it/forum/showthread.php?t=1464096&page=3
leggetevi il commento 59 e il 95. valgono più di 200 pag di thread.

Sono già stati postati. Quei commenti dicono tutto e non dicono niente. Perchè nemmeno lui può sapere come andranno in DX10 sia G80 che R600, ma comunque non vuole avventurarsi nelle classiche speculazioni da forum (essendo tra l'altro pure sotto NDA).
Anche il fatto che confermi implicitamente il paragone HD2900 XT - 8800GTS può avere molteplici significati...
Il fatto che in molti casi le R600XT non saranno superiori alle 8800GTX in molti giochi DX9 sembra ben più di una speculazione, ma come più volte ho ripetuto, c'è gioco e gioco... E certi giochi, soprattutto in ottica DX10, contano più di altri. ;)
R600 è un chip complesso, e complessa sarà la sua valutazione.

DakmorNoland
05-05-2007, 10:54
cmq la recensione della 2900xt è già uscita. basta che vi leggiate i commenti della 8800 ultra e le risposte di corsini.

http://www.hwupgrade.it/forum/showthread.php?t=1464096&page=3
leggetevi il commento 59 e il 95. valgono più di 200 pag di thread.

Sì lo penso anch'io. Da quello che si capisce, pare che la 2900XT stia tra la 8800GTS e la GTX, tuttavia non è detto, Paolo ha fatto abbastanza il misterioso. :D

Secondo me dipenderà molto da gioco a gioco. Poi vedremo se con i filtri attivati anche stavolta AMD riuscirà a stupire. Ma temo sarà dura visto che la GTX perde davvero poco anche con AA elevato.

yossarian
05-05-2007, 11:17
Yossarian, invece cosa potresti dirmi in merito a questo?



fast14 è una tecnologia applicabile a qualunque tipo di chip faccia uso di logica dinamica (e non limitata ad architetture RISC)




Le alu di R600 sono VLIW o RISC? :confused:

a questo non posso risponderti; in ogni caso, non sono le alu ad essere RISC i VLIW, ma l'architettura; tra le due, la differenza sostanziale è che la prima fa uso di circuiti logici dedicati (scheduler) per "parallelizzare" le istruzioni, la seconda affida lo stesso compito al compilatore (quindi sposta il task a livello di SW)



Sono realizzate con Fast14? :confused:

è stata utilizzata

A.L.M.
05-05-2007, 11:18
Anche la HD2900 XT 512MB di Sapphire (non penso però quella che abbiamo visto in foto) viene venduta a 365€ su un sito tedesco. Nello stesso shop online la 8800 GTS 640 costa tra i 324€ ed i 349€.

http://66.249.91.104/translate_c?hl=it&ie=UTF-8&oe=UTF-8&langpair=de%7Cen&u=http://geizhals.at/deutschland/a255143.html&prev=/language_tools

Kharonte85
05-05-2007, 11:30
R650, 65 nanometre comes in Q3

Written by Fuad Abazovic
Saturday, 05 May 2007 11:22

A new hope at 800MHz+


ATI is working hard to bring a new high end card and this one is scheduled for Q3. This is basically the R600 done right and is nothing much more than R600 shrinked at 65 nanometre.


ATI obviously mastered 65 nanometre and is ready for mainstream and entry level DX 10 at 65 nanometre production. The next step is to release the real high end card clocked at more than 800 MHz core and 1024 MB GDDR4 memory.


The next high end card is R650 and it should be out until September in worst case scenario. Let's hope that things will go right this time. Some of our sources indicated way higher clocks than 800 MHz closer to 1000 MHz.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=838&Itemid=1

tony73
05-05-2007, 11:39
R650, 65 nanometre comes in Q3

Written by Fuad Abazovic
Saturday, 05 May 2007 11:22

A new hope at 800MHz+


ATI is working hard to bring a new high end card and this one is scheduled for Q3. This is basically the R600 done right and is nothing much more than R600 shrinked at 65 nanometre.


ATI obviously mastered 65 nanometre and is ready for mainstream and entry level DX 10 at 65 nanometre production. The next step is to release the real high end card clocked at more than 800 MHz core and 1024 MB GDDR4 memory.


The next high end card is R650 and it should be out until September in worst case scenario. Let's hope that things will go right this time. Some of our sources indicated way higher clocks than 800 MHz closer to 1000 MHz.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=838&Itemid=1

Ma figuriamoci,ci fanno penare con la XT! immaginarsi di far uscire una scheda nuova per Settembre "nel peggiore dei casi" mi sembra alquanto strano IMHO dateci sta XT e festa finita! :)

P.S.

Non avevo mai visto un NDA cosi' fiscale a pochissimi giorni dal rilascio...qui gatta ci cova...

DakmorNoland
05-05-2007, 11:42
Ma figuriamoci,ci fanno penare con la XT! immaginarsi di far uscire una scheda nuova per Settembre "nel peggiore dei casi" mi sembra alquanto strano IMHO dateci sta XT e festa finita! :)

P.S.

Non avevo mai visto un NDA cosi' fiscale a pochissimi giorni dal rilascio...qui gatta ci cova...

Boh io ci spero, facessero versioni della XT a 65nm si potrebbero ridurre nettamente i consumi e forse anche accorciare ancora un pò la scheda. Anche se alla fine la 2900XT dovrebbe entrare in qualunque case credo.

belin
05-05-2007, 11:45
...ok, se Fuad dice Q3 abbiamo la conferma matematica che R650 uscirà nel Q4, in autunno.

;)

A.L.M.
05-05-2007, 11:59
fast14 è una tecnologia applicabile a qualunque tipo di chip faccia uso di logica dinamica (e non limitata ad architetture RISC)



a questo non posso risponderti; in ogni caso, non sono le alu ad essere RISC i VLIW, ma l'architettura; tra le due, la differenza sostanziale è che la prima fa uso di circuiti logici dedicati (scheduler) per "parallelizzare" le istruzioni, la seconda affida lo stesso compito al compilatore (quindi sposta il task a livello di SW)



è stata utilizzata

Grazie come al solito per le preziose info. :ave:
Dunque se è stata utilizzata questa tecnologia dovrebbero essere possibili clock folli per il core... :eek:

yossarian
05-05-2007, 12:06
Grazie come al solito per le preziose info. :ave:
Dunque se è stata utilizzata questa tecnologia dovrebbero essere possibili clock folli per il core... :eek:

di fatto l'utilizzo di una logica di tipo dinamico serve principalmente per diminuire i tempi di risposta dei gate dei mos, velocizzandone i tempi di risposta

betha
05-05-2007, 12:09
R650, 65 nanometre comes in Q3

Written by Fuad Abazovic
Saturday, 05 May 2007 11:22

A new hope at 800MHz+


ATI is working hard to bring a new high end card and this one is scheduled for Q3. This is basically the R600 done right and is nothing much more than R600 shrinked at 65 nanometre.


ATI obviously mastered 65 nanometre and is ready for mainstream and entry level DX 10 at 65 nanometre production. The next step is to release the real high end card clocked at more than 800 MHz core and 1024 MB GDDR4 memory.


The next high end card is R650 and it should be out until September in worst case scenario. Let's hope that things will go right this time. Some of our sources indicated way higher clocks than 800 MHz closer to 1000 MHz.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=838&Itemid=1

sarà la xtx ? vedendo gli ipotetici consumi della xt sarebbe plausibile una xtx a 65nm

morfeus02
05-05-2007, 12:13
http://www.xtremesystems.org/forums/showthread.php?p=2171205#post2171205

to regalino XD

bech fatto come leggerete con drivers vecchissimi a quanto dice, appena li aggiornerà gli scores saliranno ancora di piu XD

ed è una 2900XT da 1gb DDR4 512bit

Athlon 64 3000+
05-05-2007, 12:26
quindi c'è la possibilità che la XT esca sia in versione da 512 mb gddr3 a 1650 mhz che in versione 1 gb gddr4 a 2000 mhz.
Chissa qualle delle 2 sarà più longeva per uno come me che gioca sempre a 1280x1024 con minimo aa 4x e af 16x.
Il mio monitor non va oltre i 1280x1024.

A.L.M.
05-05-2007, 12:26
di fatto l'utilizzo di una logica di tipo dinamico serve principalmente per diminuire i tempi di risposta dei gate dei mos, velocizzandone i tempi di risposta

Uhm, e dunque quali ripercussioni pratiche potrebbe avere nell'architettura? Quali sarebbero i vantaggi rispetto ad una più tradizionale oltre al fatto che, da come mi pare di aver capito dal sito di Intrinsity, i clocks del core possono arrivare parecchio in alto?

http://www.xtremesystems.org/forums/showthread.php?p=2171205#post2171205

to regalino XD

bech fatto come leggerete con drivers vecchissimi a quanto dice, appena li aggiornerà gli scores saliranno ancora di piu XD

ed è una 2900XT da 1gb DDR4 512bit

:old: :D Già postati. ;)

Free Gordon
05-05-2007, 12:30
non è improbabile e non sarebbe la prima volta che accade. ATi, ad ogni step (tranne nel passaggio tra R3x0 e R4x0), ha sempre apportato grandi innovazioni ai chip, mentre nVidia utilizza una strategia più conservativa. Ad esempio, NV3x era ancora, per molti aspetti, legato alla "tradizione" dei chip dx7 e dx8 (e non a caso, con lo sm1.x era molto veloce); il salto si è avuto con NV40 di cui G7x è stato un'evoluzione. La filosofia è molto differente: ATi preferisce partire con un'architettura già orientata allo shader model di riferimento, su cui lavorare nei successivi step (ottimizzazioni, aumento delle unità ecc, ma con una base di partenza che, a livello architetturale resta la medesima), nVidia preferisce passare attraverso più fasi di transizione. Il primo approccio premia a medio/lungo termine, il secondo è più gratificante a breve termine (e permette uno sviluppo più rapido delle architetture). Anche se, in effetti, in R6x0 c'è più di qualcosa di R5x0.

Non avrei saputo spiegarlo meglio... :asd:

Domanda impertinente: :culo:
secondo te, osservando gli schemi di G80, è vera o no la superiorità del chip nVidia nell'uso dell'anisotropico?
Ci dobbiamo aspettare una qualità visiva migliore su G80, questa volta? :sofico:

Free Gordon
05-05-2007, 12:34
nel confronto con Nv40 ATi IMHO fu frenata dal mancato sviluppo di R400, ripiegando così su un più classico R420
bYeZ!


Effettivamente, uscirsene con un chip a shader unficati nel 2004, sarebbe stato un pò troppo... :asd:

Free Gordon
05-05-2007, 12:35
Se nvidia avesse sbagliato su nv40 rischiava il fallimento, Ati veniva da 2 anni (9700 pro) di dominio assoluto. Secondo me ha scelto in quel caso un approccio conservativo perchè seduta un po' sugli allori :D

Non è nella filosofia di una casa che ha puntato sempre sull'innovazione. ;)
La spiegazione sta sopra. :D

Free Gordon
05-05-2007, 12:45
quanto pensate che ci voglia a sviluppare un benchmark, anche non accuratissimo, in Dx10? o un techdemo o quel che volete voi.. l'assenza totale di software Dx10, ripeto, mi dà molto da pensare.
bYeZ!


Mah, se il 3DMark2007 (dx10) stavolta è pro ATI (leggici quel che vuoi :asd: ) ci saranno grosse differenze di punteggio tra G80 e R600, se invece sarà tarato sulle nVidia (leggici quel che vuoi :rotfl: ) allora le differenze saranno minime (o persino a vantaggio di G80).

jp77
05-05-2007, 12:59
Mah, se il 3DMark2007 (dx10) stavolta è pro ATI (leggici quel che vuoi :asd: ) ci saranno grosse differenze di punteggio tra G80 e R600, se invece sarà tarato sulle nVidia (leggici quel che vuoi :rotfl: ) allora le differenze saranno minime (o persino a vantaggio di G80).

Il 3dMark05 era pro Ati il 3dMark06 pro Nvidia per la logica dell'alternanza ora toccherebbe ancora ad AMD\ati :asd:

Free Gordon
05-05-2007, 13:01
Forse voleva dire che hanno gli shader unificati ma diversi come struttura, bus diverso, e già questo basta e avnza per differenziarle
però molto meno che tra nv40 e r5xx...


In realtà la risposta di Yoss probabilmente significa proprio l'opposto. :D

Facendo un paragone per assurdo, se fosse stato sotto NDA per R5x0, alla corrispondente domanda di ATI7500 avrebbe risposto: "sia G71 che R5x0 hanno shader separati"... :rotfl: essendo però i due chip, come ben sappiamo, totalmente differenti.


Fa conto che l'architettura R5x0 è stata tutta progettata per dare ottime performace nel dynamic branching (feature centrale nello SM 3.0), ma tra i giochi dx9c attuali che faccia uso di DB, non ce n'è manco uno... :)
Questo ti fa capire il potere che ha nVidia nell'indirizzare la programmazione nelle produzioni videoludiche.

Free Gordon
05-05-2007, 13:04
Perche' ora che ci saranno piu' giochi in dx10 rispetto a quelli in dx9 passera' un po' di tempo...quindi se le prestazioni in dx9 non sono garantite sono scaxxi...

Le prestazioni in dx9 sono garantite con la x1950XTX, figuriamoci se non saranno garantite con R600... :asd:

Free Gordon
05-05-2007, 13:12
Infatti ho scritto "relativamente": ci perde in immagine e ci guadagna (non solo in immagine) il concorrente (500.000 G80 venduti, non ordinati, al 31 gennaio scorso, ora saremo vicini al milione forse, che se non fà la fortuna della casa sicuramente porta molti liquidi in cassa)
tutto senza polemica :)


E' sbagliato, dato che le quote di mercato delle due aziende nel 2007, non sono cambiate.

L'uscita di G80 non ha influito così positivamente sulle casse di nVidia ma sopratutto NON ha influito negativamente sui conti di ATI. ;)

A.L.M.
05-05-2007, 13:13
Le prestazioni in dx9 sono garantite con la x1950XTX, figuriamoci se non saranno garantite con R600... :asd:

Ma infatti... 'Sta cosa del DX9 credo stia prendendo proporzioni esagerate... Dando per buoni i bench che danno la XT dietro alla GTX, comunque rimane avanti (in certi casi pure di parecchio) alla GTS 640. Se la XT non garantisce le prestazioni in DX9 allora non le garantirà nemmeno la GTS... :asd:
Inoltre bisogna pensare anche ad un'altra cosa: a partire da giugno inizieranno ad uscire i primi giochi DX10 (seppur DX9 con features DX10). Quello sarà comunque uno spartiacque... Imho da allora in poi tutti i lanci di giochi "importanti" supporteranno, a vario titolo, le DX10. Quindi le prestazioni coi giochi vecchi (per data o per concetto) andranno lasciate un attimo da parte.

Free Gordon
05-05-2007, 13:16
sembra ci sia una sorta di semi-immobilità, tutti in attesa degli eventi.


Ecco, e quì tocchi un tema a me caro: la presenza di un gioco che giustifichi un upgrade.

Per upgradare ci dev'essere questo motivo, per quanto mi riguarda... e penso anche per la maggioranza delle persone. :)

Negli ultimi 6 mesi che giochi sono usciti che necessitino di un upgrade?
Stalker? :asd: (ovviamente non sto parlando degli utenti-limite, risoluzioni altissime e soldi da spendere a palate)

Se poi consideriamo la situazione del gaming su pc in generale (il primo titolo con UE3 uscirà un anno dopo, il primo titolo su console.... :rolleyes: ) mi viene da pensare che il time to market di G80 sia stato totalmente cannato.

Vedremo con R600 come sarà... (e le eventuali sorprese in uscita) ma non sono molto fiducioso nemmeno per ATI.

DakmorNoland
05-05-2007, 13:20
Ecco, e quì tocchi un tema a me caro: la presenza di un gioco che giustifichi un upgrade.

Per upgradare ci dev'essere questo motivo, per quanto mi riguarda... e penso anche per la maggioranza delle persone. :)

Negli ultimi 6 mesi che giochi sono usciti che necessitino di un upgrade?
Stalker? :asd: (ovviamente non sto parlando degli utenti-limite, risoluzioni altissime e soldi da spendere a palate)

Se poi consideriamo la situazione del gaming su pc in generale (il primo titolo con UE3 uscirà un anno dopo, il primo titolo su console.... :rolleyes: ) mi viene da pensare che il time to market di G80 sia stato totalmente cannato.

Vedremo con R600 come sarà... (e le eventuali sorprese in uscita) ma non sono molto fiducioso nemmeno per ATI.

Non posso che quotarti!

Io cambio scheda solo quando ne sento un reale bisogno, e devo dire che per ora con la mia attuale giro bene a 1680 a qualunque titolo.

Magari con qualche compromesso con i titoli futuri, cmq credo che un altro anno sta scheda ce la faccia in scioltezza. In più non giocando a FPS che sono di solito i + tosti ho ancora meno problemi. :p

Kharonte85
05-05-2007, 13:23
Le prestazioni in dx9 sono garantite con la x1950XTX, figuriamoci se non saranno garantite con R600... :asd:
Ho capito ma fino a che non ci saranno giochi in dx10 è meglio tenere ben presenti le prestazioni in dx9...:)
Ecco, e quì tocchi un tema a me caro: la presenza di un gioco che giustifichi un upgrade.
Nel futuro ce ne sara' uno:

CRYSIS

:ave:

L'ultimo upgrade che ho fatto io fu per l'uscita di Oblivion.

TecnoWorld8
05-05-2007, 13:33
queste speculazioni su R650 già a settembre mi buttano nello sconforto. Vorrei tanto evitare di comprare ora una scheda che tra 4 mesi è vecchia come processo produttivo e consumi

DakmorNoland
05-05-2007, 13:35
queste speculazioni su R650 già a settembre mi buttano nello sconforto. Vorrei tanto evitare di comprare ora una scheda che tra 4 mesi è vecchia come processo produttivo e consumi

Hai solo da aspettare. Con la 1800GTO2 per ora non hai nessunissima necessità.

TecnoWorld8
05-05-2007, 13:37
:) ti ripeto che invece, per i miei parametri, la mia scheda in firma, pur iperoverclockata, non mi da più la massima giocabilità ai giochi che più mi piacciono. Rainbow 6 vegas ad esempio è davvero lentissimo...e Stalker è poco più fluido.

Dipende tutto da quando sono annunciati i giochi nuovi che mi piacciono maggiormente (crysis, bioshock, age of conan, episode 2, ecc). Se non escono prima di settembre posso aspettare, con il rischio però che poi la scheda a 65nm non esca...

A.L.M.
05-05-2007, 13:49
queste speculazioni su R650 già a settembre mi buttano nello sconforto. Vorrei tanto evitare di comprare ora una scheda che tra 4 mesi è vecchia come processo produttivo e consumi

Guarda che quel rischio lo correresti anche comprando ora una 8800GTX, tra l'altro spendendo di più. ;)

Free Gordon
05-05-2007, 14:01
cacchio quando lo dicevo io che era dx10 e tutti mi dicevano che era dx9 non parlavano loro...:mad: grazie mi hai dato una bella notizia...:D


E' dx10 come mio nonno... :D

E' un gioco sviluppato per 360 e pc.

E' un gioco di transizione come tutti quelli in uscita nel 2007 (e anche nel 2008...) che di dx10 avrà solo il nome (come Crysis del resto).

DakmorNoland
05-05-2007, 14:04
E' dx10 come mio nonno... :D

E' un gioco sviluppato per 360 e pc.

E' un gioco di transizione come tutti quelli in uscita nel 2007 (e anche nel 2008...) che di dx10 avrà solo il nome (come Crysis del resto).

Vabbè non dire così. Ci sarà l'effettino d'illuminazione caruccio che potra attivare solo con una DX10. :D

appleroof
05-05-2007, 14:07
E' dx10 come mio nonno... :D

E' un gioco sviluppato per 360 e pc.

E' un gioco di transizione come tutti quelli in uscita nel 2007 (e anche nel 2008...) che di dx10 avrà solo il nome (come Crysis del resto).

Già...prima che esca un gioco dx10 vero ci saranno le dx11....:asd: :asd:

A.L.M.
05-05-2007, 14:09
E' dx10 come mio nonno... :D

E' un gioco sviluppato per 360 e pc.

E' un gioco di transizione come tutti quelli in uscita nel 2007 (e anche nel 2008...) che di dx10 avrà solo il nome (come Crysis del resto).

Beh, è ovvio. D'altronde non si possono nemmeno tagliare fuori tutti quei giocatori che per un annetto e più si terranno le vecchie schede DX9...
Comunque giochi come Bioshock, Crysis, ecc... saranno ancor più shader intensive di altri, proprio in virtù del loro (seppur parziale) supporto a DX10.

Kharonte85
05-05-2007, 14:12
Beh, è ovvio. D'altronde non si possono nemmeno tagliare fuori tutti quei giocatori che per un annetto e più si terranno le vecchie schede DX9...
Comunque giochi come Bioshock, Crysis, ecc... saranno ancor più shader intensive di altri, proprio in virtù del loro (seppur parziale) supporto a DX10.
E a giudicare dai trailer direi che c'è abbastanza dx10 (io sono rimasto putrefatto...:eek: )

appleroof
05-05-2007, 14:20
E' sbagliato, dato che le quote di mercato delle due aziende nel 2007, non sono cambiate.

L'uscita di G80 non ha influito così positivamente sulle casse di nVidia ma sopratutto NON ha influito negativamente sui conti di ATI. ;)

NVIDIA ha annunciato i suoi risultati finanziari relativi al quarto trimestre 2006 ed a tutto il 2006. La annuncia un giro di affari in rialzo del 39% in rapporto al quarto trimestre 2005. (uscita G80 n.d.r.)

Il giro di affari dell'ultimo trimestre del 2006 fa registrare un nuovo record con una somma globale di 878,9 milioni di dollari, da comparare ai 633,6 milioni registrati l'anno precedente nello stesso periodo. Il tutto associato ad un utile netto di 163,5 milioni di dollari, contro i 97,4 milioni di dollari del quarto trimestre 2005.

http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=1120


La quota di mercato non è legata direttamente ai profitti, è la percentuale delle vendite di un'impresa sul totale delle vendite del settore in cui l'azienda opera.

Non è per fare la lezioncina, solo che se avevo detto quello c'era un perchè, tutto qui :)

Free Gordon
05-05-2007, 14:27
a questo non posso risponderti; in ogni caso, non sono le alu ad essere RISC i VLIW, ma l'architettura; tra le due, la differenza sostanziale è che la prima fa uso di circuiti logici dedicati (scheduler) per "parallelizzare" le istruzioni, la seconda affida lo stesso compito al compilatore (quindi sposta il task a livello di SW)


E' scritto nelle ultime slide che R600 è Very Large :sofico:

Per cui tutto sulle spalle dei driver, a quanto mi par di capire... :p

Free Gordon
05-05-2007, 14:42
NVIDIA ha annunciato i suoi risultati finanziari relativi al quarto trimestre 2006 ed a tutto il 2006. La annuncia un giro di affari in rialzo del 39% in rapporto al quarto trimestre 2005. (uscita G80 n.d.r.)
Il giro di affari dell'ultimo trimestre del 2006 fa registrare un nuovo record con una somma globale di 878,9 milioni di dollari, da comparare ai 633,6 milioni registrati l'anno precedente nello stesso periodo. Il tutto associato ad un utile netto di 163,5 milioni di dollari, contro i 97,4 milioni di dollari del quarto trimestre 2005.
http://www.geforceitalia.it/dal_mondo_nvidia/whats_new/detail.asp?id=1120
La quota di mercato non è legata direttamente ai profitti, è la percentuale delle vendite di un'impresa sul totale delle vendite del settore in cui l'azienda opera.
Non è per fare la lezioncina, solo che se avevo detto quello c'era un perchè, tutto qui :)


Quello che volevo dire, è che ATI non è stata penalizzata dall'introduzione di G80. ;)

ale0bello0pr
05-05-2007, 15:19
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:

TecnoWorld8
05-05-2007, 15:36
non ho capito...hai la R600?

Nos89
05-05-2007, 15:38
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:

!

Dexther
05-05-2007, 15:38
che emozione scrivere da R600 :sbav::D

:mbe: :confused:

Mister Tarpone
05-05-2007, 15:45
che emozione scrivere da R600 :

sono il primo che ha inaugurato questo thread :asd:

:oink: ???

A.L.M.
05-05-2007, 16:04
E a giudicare dai trailer direi che c'è abbastanza dx10 (io sono rimasto putrefatto...:eek: )

Concordo... :eek:

che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:

Bench! :O

(se è vero :stordita: )

tony73
05-05-2007, 16:18
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:


Foto almeno dell'hardware (non esiste NDA per l'immagini),altrimenti era meglio che non parlavi ;)

Andrea deluxe
05-05-2007, 16:19
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:

visto che le foto parziali si possono divulgare sotto nda:O ,

MUOVITI A POSTARCI QUALCOSAAAAAAA:mad:

Robbysca976
05-05-2007, 16:19
Forse voleva dire ke sta scrivendo da dentro una FIAT 600 :D :D :D

parcher
05-05-2007, 16:20
?? :cool:

TecnoWorld8
05-05-2007, 16:20
se non è un giornalista, non ha firmato alcun NDA e può divulgare i bench...

jp77
05-05-2007, 16:30
Foto almeno dell'hardware (non esiste NDA per l'immagini),altrimenti era meglio che non parlavi ;)

quoto :O

nitroin
05-05-2007, 16:31
Dai dai dai dai dai dai dai dai

kartoshka
05-05-2007, 16:33
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:

Dimostrarlo :O Altrimenti :banned: :D

tony73
05-05-2007, 16:33
va be' mi so rotto di aspettare,ripasso ta un paio d'ore :D

dantes76
05-05-2007, 16:34
che emozione scrivere da R600

questa?
http://www.motorbox.it/Gamma/Suzuki/2006/GSX-R600.jpg

TecnoWorld8
05-05-2007, 16:35
questa mi piace esteticamente molto più del reference design:

http://www.fx57.net/?p=635

nitroin
05-05-2007, 16:40
questa?
http://www.motorbox.it/Gamma/Suzuki/2006/GSX-R600.jpg

Devo ammettere che non mi lamenterei in caso ricevessi quella al posto della X2900xt

appleroof
05-05-2007, 16:44
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:

Non puoi venirtene così dopo mesi di attesa, o la mostri (da quello che ho capito non sei un giornalista ma hai un amico tale no?) o stai zitto, cavolo :D

A.L.M.
05-05-2007, 17:12
Tornando alla presunta XT 1GB, sembra che in realtà sia una FireGL. Ecco cosa dice un utente di Beyond3D:

Originally Posted by KTE
1: He needs to run it on Vista and 3DMark will run.
2: Its not the XT retail version, its the OEM workstation card with 1GB GDDR4.
3: Kinc and Sampras from XS have the retail XT with 512MB GDDR3, so look to their threads for results.

The retail XT is very good, just hold on and see the reviews from guys who know what they're doing. Most guys online that I've seen with the cards producing benches already published are still using the older drivers that had issues and were showing underpeformance.

Any guy with the GPU will confirm that, like kinc, gibbo, wizzard and so forth.

ale0bello0pr
05-05-2007, 17:16
visto che le foto parziali si possono divulgare sotto nda:O ,

MUOVITI A POSTARCI QUALCOSAAAAAAA:mad:

:asd: ho detto che emozione scrivere da R600...quindi non ho specificato se era la mia :stordita: ... :p
ero in uno dei famosi e pochi lab di testing :cool:
Giornalista? no al max Ufficio Stampa :asd:
la prox volta porto il fotofonino con me..:tie:

e poi sono stato io il primo a far vedere il QX6700 quando uscì proprio a un mio caro amico mod di Hwupgrade...nn dico ballz tranqui ;)

ale0bello0pr
05-05-2007, 17:18
questa?
http://www.motorbox.it/Gamma/Suzuki/2006/GSX-R600.jpg


non male :D

Defragg
05-05-2007, 17:20
Giusto per chiudere il discorso, è vero che alcune features di UE3 non vengono usate, ma è anche vero che stando a quanto diceva uno spokesperson ufficiale di Irrational Games, quelle parti di motore sono state sostituite con porzioni proprietarie, come la parte dell'engine che si occupa del rendering e degli effetti dell'acqua. Non mi pare che il risultato sia da buttar via... :sofico:

esatto ;)

inoltre c'è da ricordare che il CE2 è interamente sviluppato da Crytek mentre l'UE3 si appoggia sul middleware Novodex (di AGEIA) per tutte le questioni di fisica, danneggiamenti, deformazioni, ecc...

A.L.M.
05-05-2007, 17:24
:asd: ho detto che emozione scrivere da R600...quindi non ho specificato se era la mia :stordita: ... :p
ero in uno dei famosi e pochi lab di testing :cool:
Giornalista? no al max Ufficio Stampa :asd:
la prox volta porto il fotofonino con me..:tie:

Beh, quindi hai già assistito a qualche test, no? :O
Potresti comunque darci un'idea delle prestazioni, usando qualche giro di parole... :fiufiu:

ale0bello0pr
05-05-2007, 17:24
Beh, quindi hai già assistito a qualche test, no? :O
Potresti comunque darci un'idea delle prestazioni, usando qualche giro di parole... :fiufiu:


Questa che ti dice?
:Prrr:
dai -9 ;)

A.L.M.
05-05-2007, 17:32
Questa che ti dice?
:Prrr:

Era meglio se dicevi "gameboy gpu" come W1zzard... :sofico:
Magari noi ti facciamo domande chiuse e tu rispondi "potrebbe essere" al posto di sì e "non sono autorizzato a rispondere" al posto di no. :O
Ad esempio, dopo aver visto i test, compreresti HD2900 XT? :O
Non mi sembra che sia una domanda compromettente, no? :D

ale0bello0pr
05-05-2007, 17:35
Era meglio se dicevi "gameboy gpu" come W1zzard... :sofico:
Magari noi ti facciamo domande chiuse e tu rispondi "potrebbe essere" al posto di sì e "non sono autorizzato a rispondere" al posto di no. :O
Ad esempio, dopo aver visto i test, compreresti HD2900 XT? :O
Non mi sembra che sia una domanda compromettente, no? :D

sto vendendo la mia X1900 XT :D :ops:
speriamo di ricavare 200 cucuzze :doh:

dantes76
05-05-2007, 17:36
Questa che ti dice?
:Prrr:
dai -9 ;)

chi cade dalla torre? il canadese o il californiano? :asd:

Stig
05-05-2007, 17:38
sto vendendo la mia X1900 XT :D :ops:
speriamo di ricavare 200 cucuzze :doh:

ma se per esempio nel tuo prossimo post scrivessi qualche numeretto cosi a caso senza nessun commento, nessuno se la prenderebbe a male...no??...:D

ecco un esempio..

05:*****
06:*****

ale0bello0pr
05-05-2007, 17:39
chi cade dalla torre? il canadese o il californiano? :asd:

tutti a San Francesco :D

microcip
05-05-2007, 17:43
non per dire ma in crucconia una Sapphire Radeon HD 2900 XT sta fuori a 365€ se le prestazioni sono al top e il prezzo rimane questo mi sa che nvidia sto giro paga da bere.

dantes76
05-05-2007, 17:43
tutti a San Francisco :D

be dopo il passaggio a amd, anche ati e' californiana..:mbe:

Tutti a san francisco..:stordita:
qualcosa tipo il codice da Vinci? :stordita:
ehmm ma sono in vantaggio le giubbe rosse, o gli orsi?

ale0bello0pr
05-05-2007, 17:43
ma se per esempio nel tuo prossimo post scrivessi qualche numeretto cosi a caso senza nessun commento, nessuno se la prenderebbe a male...no??...:D

ecco un esempio..

05:*****
06:*****

cosa sono dei bacini? :flower:

Stig
05-05-2007, 17:44
cosa sono dei bacini? :flower:

beh..al posto dei bacini metti un po di numeri a caso pero..dai..:asd:

Nos89
05-05-2007, 17:44
cosa sono dei bacini? :flower:

No vogliamo i bench:sofico: tu scrivi i numeri poi interpetriamo da soli:asd:

Robbysca976
05-05-2007, 17:45
tutti a San Francesco :D

Dipende se il costo del biglietto è corrispondente alla bellezza del luogo..

:D :D :D

kartoshka
05-05-2007, 17:45
Questa che ti dice?
:Prrr:
dai -9 ;)

Va beh una domanda facile mi consigli 8800gts 640 o aspetto 2900XT!! :)

ale0bello0pr
05-05-2007, 17:46
Va beh una domanda facile mi consigli 8800gts 640 o aspetto 2900XT!! :)

--------------------------------------------:confused:-------------------:oink:

Defragg
05-05-2007, 17:46
cosa sono dei bacini? :flower:

no i 3d merd ;)

A.L.M.
05-05-2007, 17:47
be dopo il passaggio a amd, anche ati e' californiana..:mbe:

Tutti a san francisco..:stordita:
qualcosa tipo il codice da Vinci? :stordita:

Sono entrambe californiane, ma AMD sta a Sunnyvale, mentre nVIDIA a Santa Clara. Però a San Francisco si terrà il party di lancio dei nuovi prodotti AMD (tra cui R600). Credo che l'interpretazione sia questa. :stordita:

Nos89
05-05-2007, 17:48
no i 3d merd ;)

per favore togli questo avatar il mio occhio si distorce sempre verso quello.:muro: :D
VOGLIAMO I BENCH!

dantes76
05-05-2007, 17:50
Sono entrambe californiane, ma AMD sta a Sunnyvale, mentre nVIDIA a Santa Clara. Però a San Francisco si terrà il party di lancio dei nuovi prodotti AMD (tra cui R600). Credo che l'interpretazione sia questa. :stordita:

veramente stanno gomito a gomito :stordita:

http://maps.google.com/maps?daddr=AMD+Pl,+Sunnyvale,+CA+94085&saddr=1226+Tiros+Way,+Sunnyvale,+CA&f=d&hl=it&sll=37.387089,-121.99826&sspn=0.010059,0.019913&ie=UTF8&t=h&z=17&om=1

bladerunner86
05-05-2007, 17:51
ma per andare a san francisco si passa per sunnyvale o santa clara???

Defragg
05-05-2007, 17:52
per favore togli questo avatar il mio occhio si distorce sempre verso quello.:muro: :D

mai :O

dantes76
05-05-2007, 17:55
ma per andare a san francisco si passa per sunnyvale o santa clara???

ottima domanda :asd:

A.L.M.
05-05-2007, 17:56
veramente stanno gomito a gomito :stordita:

http://maps.google.com/maps?daddr=AMD+Pl,+Sunnyvale,+CA+94085&saddr=1226+Tiros+Way,+Sunnyvale,+CA&f=d&hl=it&sll=37.387089,-121.99826&sspn=0.010059,0.019913&ie=UTF8&t=h&z=17&om=1

Sì, Sunnyvale e Santa Clara confinano, ma AMD e nVIDIA non stanno così vicine... ;)

http://maps.google.com/maps?f=d&hl=it&saddr=2701+San+Tomas+Expy+santa+clara&daddr=AMD+Pl,+Sunnyvale,+CA+94085&sll=37.381785,-121.980425&sspn=0.033828,0.080338&ie=UTF8&t=h&z=14&om=1

Pat77
05-05-2007, 17:57
Non è nella filosofia di una casa che ha puntato sempre sull'innovazione. ;)
La spiegazione sta sopra. :D

Con la serie x800 non direi proprio, nv40 era un chio più evoluto c'è poco da fare.

bladerunner86
05-05-2007, 18:00
ma tra sunnyvale e santaclara qual' è il miglior posto per costruire un poligono? e se tu dovessi scegliere un luogo tra i due dove far crescere i tuoi figli dove ti trasferiresti? potremmo dire che sunnyvale sta al milan ( che vince la champions) come santaclara sta all' inter?

A.L.M.
05-05-2007, 18:03
ma tra sunnyvale e santaclara qual' è il miglior posto per costruire un poligono?

Ma che domanda è? :rotfl: :rotfl:

bladerunner86
05-05-2007, 18:10
Ma che domanda è? :rotfl: :rotfl:
intendevo dire quale scheda si comporta meglio con gli fps.:ciapet: :ciapet:

ale0bello0pr
05-05-2007, 18:12
Ma che domanda è? :rotfl: :rotfl:

effettivamente :asd: non l'ho capita proprio...ke indovinello sarebbe :D
ti rispondo ...trallalero, trallalè...un due trè... olè.. :cool:

cmq adesso evitando post di simil-spam etc...

tenete in mente questa tabella...
http://file01.uploaddump.nl/~file01/uploads/kkmcakewmaook-r600-8800GTX-comparison.JPG

e ora non so esattamente se questi test sono veri..a meno ke ...nn siano direttamente PRO Crytec....
http://file01.uploaddump.nl/~file01/uploads/kkmcaapdpmeqc-crysis-demo.JPG

cmq posso dire che non molti post fa...qualcuno ha ipotizzato varie info...tutte giuste...:D ora basta domande :cry:

A.L.M.
05-05-2007, 18:15
cmq posso dire che non molti post fa...qualcuno ha ipotizzato varie info...tutte giuste...:D ora basta domande :cry:

Vabbè, dicci almeno chi le aveva ipotizzate... yoss?

dantes76
05-05-2007, 18:16
effettivamente :asd: non l'ho capita proprio...ke indovinello sarebbe :D
ti rispondo ...trallalero, trallalè...un due trè... olè.. :cool:



trallalero, sta in germania...germania= AMD? :mbe:


12300 :mbe:

Defragg
05-05-2007, 18:20
tenete in mente questa tabella...
http://file01.uploaddump.nl/~file01/uploads/kkmcakewmaook-r600-8800GTX-comparison.JPG

è sbagliata, anche le 8xxx includono la "Game physics processing capability" grazie ai Quantum Effects ;)

leoneazzurro
05-05-2007, 18:22
Vabbè, dicci almeno chi le aveva ipotizzate... yoss?

Cos'è, una battuta? :D

Dexther
05-05-2007, 18:25
tifoso sfegatato io ? ahahah mi hai preso per un fanboy? :asd:
innanzitutto possiedo una CPU Intel orgogliosamente e ho sempre detto che AMD sucks... ma per quanto riguarda le schede video...io scelgo sempre il top....quindi in questo caso ho aspettato...R600....e cmq...vi levo tutti i dubbi... è la XT ad avere 1GB GDDR4...non la XTX... quindi tirate le somme...

-9 alla sorpresa...:D

(assisitito vuol dire che ho visto con i miei occhi grazie ad un amico alcuni bench di R600 e c'erano anche 8800 GTS/GTX/ULTRA )


ero venuto in pace :flower:

giuro che se stai dicendo cazz@te il 15 sera mi trovi a brescia e ti meno di persona :sofico: :sofico:

EDIT : non penso di essere il solo pronto alla trasferta :D:D

ale0bello0pr
05-05-2007, 18:25
Ma che domanda è? :rotfl: :rotfl:

è sbagliata, anche le 8xxx includono la "Game physics processing capability" grazie ai Quantum Effects ;)

vabbhè c'è un tick in meno ;)

A.L.M.
05-05-2007, 18:28
Cos'è, una battuta? :D

Ehm, perchè? :stordita: :fagiano:

leoneazzurro
05-05-2007, 18:29
Ehm, perchè? :stordita: :fagiano:

Perche EGLI non ipotizza, SA :ave: :ave: :D

bladerunner86
05-05-2007, 18:32
visto che non sei sotto nda puoi dire quanto consuma la scheda?

Nos89
05-05-2007, 18:33
è sbagliata, anche le 8xxx includono la "Game physics processing capability" grazie ai Quantum Effects ;)

vabbe ma che significa? che c'entrano queste cose sono la maggior parte proprietarie di ATI anche NVIDIA ci mette poco a fare un grafico uguale con delle cose che solo la sua scheda supporta.
ho sbagliato a quotare volevo quotare il grafico

ale0bello0pr
05-05-2007, 18:33
visto che non sei sotto nda puoi dire quanto consuma la scheda?

ripeto non sono sotto nda..ma sono sotto "respect to"... :(

ale0bello0pr
05-05-2007, 18:34
vabbe ma che significa? che c'entrano queste cose sono la maggior parte proprietarie di ATI anche NVIDIA ci mette poco a fare un grafico uguale con delle cose che solo la sua scheda supporta.
ho sbagliato a quotare volevo quotare il grafico


ricorda che la tecnologia nn è sempre uguale da partner a partner....e poi quando si parla di tecnologia avanzata allora quella precedente non dico che sembra obsoleta....ma quasi... :D

se vuoi un esempio te lo faccio con
Doom3/Quake4 vs Crysis....
Ovviamente qui i partners sono SH

leoneazzurro
05-05-2007, 18:35
http://www.nordichardware.com/forum/viewtopic.php?topic=8428&forum=45

Dexther
05-05-2007, 18:37
http://www.nordichardware.com/forum/viewtopic.php?topic=8428&forum=45

certo che tutti sti test farli con una CPU appena appena più normale no eh? :D

ale0bello0pr
05-05-2007, 18:38
http://www.nordichardware.com/forum/viewtopic.php?topic=8428&forum=45

;) strabiliant ho fatto un calcolo con il 3dmark2006 calculator :O sfora di un un punto .... mmm

Simon82
05-05-2007, 18:39
certo che tutti sti test farli con una CPU appena appena più normale no eh? :D

Concordo.

Nos89
05-05-2007, 18:39
http://www.nordichardware.com/forum/viewtopic.php?topic=8428&forum=45

bha tolti i 3000p in più del procio va come una GTX

fede27
05-05-2007, 18:40
ripeto non sono sotto nda..ma sono sotto "respect to"... :(
Ma che vor dì sta cosa?? :mbe:
Se poi posso permettermi, senza alcuna volontà di offendere o far polemica, sarebbe stato più "respect to.." verso questo forum fare a meno di inviare post enigmatici ed allusivi senza poi dire nulla...Non mi sembra un apporto molto costruttivo alla discussione, anzi..direi tutt'altro.

CIaO

leoneazzurro
05-05-2007, 18:41
certo che tutti sti test farli con una CPU appena appena più normale no eh? :D

Comunque a quanto pare il fattore limitante non è il chip, ma la potenza consumata. Credo che facilemente assisteremo alla vendita di versioni "estreme" con sistemi di raffreddamento a liquido, e IMHO (e qui partono le scommesse) ce ne potrà essere qualcuna nei dintorni del GHz...

leoneazzurro
05-05-2007, 18:41
Ma che vor dì sta cosa?? :mbe:
Se poi posso permettermi, senza alcuna volontà di offendere o far polemica, sarebbe stato più "respect to.." verso questo forum fare a meno di inviare post enigmatici ed allusivi senza poi dire nulla...Non mi sembra un apporto molto costruttivo alla discussione, anzi..direi tutt'altro.

Qualche pagina fa si parlava di 3ddmerd ritoccati con paint...questi non mi sembrano poi tanto diversi :D

CIaO

Ehm.. sai chi è Kinc, no?

fede27
05-05-2007, 18:42
Ehm.. sai chi è Kinc, no?

Infatti appena ho visto meglio ho editato :D

CIaO

Defragg
05-05-2007, 18:43
certo che tutti sti test farli con una CPU appena appena più normale no eh? :D

basta leggere i punteggi SM2 e SM3 :boh:

ale0bello0pr
05-05-2007, 18:43
Ma che vor dì sta cosa?? :mbe:
Se poi posso permettermi, senza alcuna volontà di offendere o far polemica, sarebbe stato più "respect to.." verso questo forum fare a meno di inviare post enigmatici ed allusivi senza poi dire nulla...Non mi sembra un apporto molto costruttivo alla discussione, anzi..direi tutt'altro.

CIaO

fatto subito un calcolo sfora di un punto...cmq nn è un fake....se è per quel punto...

enigmatici ed allusivi? penso si sia capito cosa abbia sfornato AMD...

A.L.M.
05-05-2007, 18:43
Perche EGLI non ipotizza, SA :ave: :ave: :D

Giusto! :O
Chiedo perdono!!! :ave: :ave:

leoneazzurro
05-05-2007, 18:44
bha tolti i 3000p in più del procio va come una GTX

Vabbè, il 3Dmark non è il massimo livello di giudizio. Immagino dai dati tecnici che con drivers più maturi nelle applicazioni reali (i giochi DX9) sia in quei dintorni, o comunque abbastanza superiore alla 8800 GTS. In DX10 è tutto da vedere.

Dexther
05-05-2007, 18:45
basta leggere i punteggi SM2 e SM3 :boh:

bè sicuramente, ma uno screen con un "semplice" x6800 non è che mi dispiacerebbe :p

Defragg
05-05-2007, 18:46
Vabbè, il 3Dmark non è il massimo livello di giudizio. Immagino dai dati tecnici che con drivers più maturi nelle applicazioni reali (i giochi DX9) sia in quei dintorni, o comunque abbastanza superiore alla 8800 GTS. In DX10 è tutto da vedere.

quoto, mi sembra infatti che una 8600GTS nel 3dmark và più di una 7900GTX, ma nei giochi :rolleyes:

Nos89
05-05-2007, 18:49
quoto, mi sembra infatti che una 8600GTS nel 3dmark và più di una 7900GTX, ma nei giochi :rolleyes:

nei giochi è meglio una 7900GTX su questo non ce dubbio;)

leoneazzurro
05-05-2007, 18:51
Per (non) avere un termine di paragone qui ci sono dei risultati di 8800 Ultra raffreddata ad Azoto liquido :D

http://www.xtremesystems.org/forums/showthread.php?t=143117

Visti i core clock della Ultra (circa 980 MHz) sarebbe interessante vedere dove con simili sistemi di raffreddamento si arrivi con la 2900.

Defragg
05-05-2007, 18:51
nei giochi è meglio una 7900GTX su questo non ce dubbio;)

[AMICO nVIDIA MODE ON](con vocetta cantinelante)

ma la 8600 c'ha le DX10...

ma la 8600 è molto più longeva...

ma la 8600 c'ha i filtri più belli...

[/AMICO nVIDIA MODE OFF]

:D

leoneazzurro
05-05-2007, 18:53
ma la 8600 c'ha i filtri più belli... :D

:eek: Ma allora quando fumi fa meno male ai polmoni!

(scusate, non ho resistito) :D

nitroin
05-05-2007, 18:54
In ogni caso anche nel 3dmerd06 la 8600 NON batte la 7900GTX...giusto per puntualizzare la prima fa poco più di 5000 punti la seconda oltre 6400

nitroin
05-05-2007, 18:54
:eek: Ma allora quando fumi fa meno male ai polmoni!

(scusate, non ho resistito) :D

oddio :rotfl:

Defragg
05-05-2007, 18:55
Per (non) avere un termine di paragone qui ci sono dei risultati di 8800 Ultra raffreddata ad Azoto liquido :D

http://www.xtremesystems.org/forums/showthread.php?t=143117

Visti i core clock della Ultra (circa 980 MHz) sarebbe interessante vedere dove con simili sistemi di raffreddamento si arrivi con la 2900.

http://img128.imageshack.us/img128/8203/20060125074957looksisi3qv4.gif

:eek: Ma allora quando fumi fa meno male ai polmoni!

(scusate, non ho resistito) :D

:rotfl:

Defragg
05-05-2007, 19:00
In ogni caso anche nel 3dmerd06 la 8600 NON batte la 7900GTX...giusto per puntualizzare la prima fa poco più di 5000 punti la seconda oltre 6400

http://www.xbitlabs.com/images/video/geforce8600gts/5dm_total.gif

http://www.xbitlabs.com/images/video/geforce8600gts/6dm_total.gif

la 7950GT si avvicina molto alla GTX, quindi può essere indicativa :)

ma siamo OT, chiudiamola qui e basta :D

Nos89
05-05-2007, 19:00
Per (non) avere un termine di paragone qui ci sono dei risultati di 8800 Ultra raffreddata ad Azoto liquido :D

http://www.xtremesystems.org/forums/showthread.php?t=143117

Visti i core clock della Ultra (circa 980 MHz) sarebbe interessante vedere dove con simili sistemi di raffreddamento si arrivi con la 2900.

:eekk: :eekk:

belin
05-05-2007, 19:00
Tornando alla presunta XT 1GB, sembra che in realtà sia una FireGL. Ecco cosa dice un utente di Beyond3D:

...e questo spiegherebbe gli ottimi risultati in ambito workstation ottenuti da DT...che aveva una vga "casualmente" 750/2000 1 Gb gddr4... ;)

cmq posso dire che non molti post fa...qualcuno ha ipotizzato varie info...tutte giuste...:D

:fiufiu:

ale0bello0pr
05-05-2007, 19:09
...e questo spiegherebbe gli ottimi risultati in ambito workstation ottenuti da DT...che aveva una vga "casualmente" 750/2000 1 Gb gddr4... ;)



cmq posso dire che non molti post fa...qualcuno ha ipotizzato varie info...tutte giuste...


:fiufiu:

andiamo insieme a San Francesco?
Din Don Dan , Din Don Dan:sofico:

nitroin
05-05-2007, 19:09
http://www.xbitlabs.com/images/video/geforce8600gts/5dm_total.gif

http://www.xbitlabs.com/images/video/geforce8600gts/6dm_total.gif

la 7950GT si avvicina molto alla GTX, quindi può essere indicativa :)

ma siamo OT, chiudiamola qui e basta :D

Mah, 100mhz sul core e 400mhz sulle memorie non sono proprio bruscolini, se mi permetti.

cmq fine OT

wiltord
05-05-2007, 19:12
ragazzi occhio con gli OT, le regole sono sempre quelle della prima pagina, e farsi 10 giorni di sospensione adesso potrebbe essere frustrante.

A.L.M.
05-05-2007, 19:19
bè sicuramente, ma uno screen con un "semplice" x6800 non è che mi dispiacerebbe :p

Beh, come hanno già detto altri, ti bastano i valori in SM2 e SM3. Quelli non cambiano (o se lo fanno, lo fanno davvero di pochissimissimo) al cambiare della cpu. Comunque con quei punteggi, con un X6800 (che secondo il test di HWUp fa 2591 punti) otterresti quasi 12000 punti. Con un E6600 (2130) 11310. Con un Athlon X2 3800+ (1549) circa 10100. ;)
Piuttosto sarebbe da capire se i clocks sono @default o meno. :)

:eek: Ma allora quando fumi fa meno male ai polmoni!

(scusate, non ho resistito) :D

Ha detto che sono più belli, non più utili... :sofico: :stordita:

...e questo spiegherebbe gli ottimi risultati in ambito workstation ottenuti da DT...che aveva una vga "casualmente" 750/2000 1 Gb gddr4... ;)



:fiufiu:

E anche i "cattivi" risultati in ambito gaming...
La spiegazione potrebbe essere plausibile. ;) :Perfido:

EDIT: tra l'altro mi è venuto in mente come esistesse già una FireGL con 1GB di ram (seppur GDDR3) la FireGL V7350. Quindi è possibilissimo che anche questa volta, pur non essendoci per il momento una scheda consumer a 1GB, ce ne sia una workstation.

http://ati.amd.com/products/fireglv7350/index.html

ale0bello0pr
05-05-2007, 19:20
infatti niente OT ;)

cmq questa è la mia preferita...appena l'ho vista me ne sn innamorato...

http://www.free4up.com/view.axd?fn=255139044010069.jpg

leoneazzurro
05-05-2007, 19:23
Piuttosto sarebbe da capire se i clocks sono @default o meno. :)


No, non lo sono. Ma non si sa di quanto sia potuto salire. Ha detto solo "stock cooling". E non di che scheda si tratti.

Defragg
05-05-2007, 19:24
infatti niente OT ;)

cmq questa è la mia preferita...appena l'ho vista me ne sn innamorato...

http://www.free4up.com/view.axd?fn=255139044010069.jpg

serve addirittura l'uomo ghiaccio per raffreddarla :eek:

che heatpipe impressionanti :eek:

Mah, 100mhz sul core e 400mhz sulle memorie non sono proprio bruscolini, se mi permetti.

cmq fine OT
no, ma come ho detto il risultato della 7950GT è indicativo, e può far pensare su quello della 7900GTX :)

ragazzi occhio con gli OT, le regole sono sempre quelle della prima pagina, e farsi 10 giorni di sospensione adesso potrebbe essere frustrante.

ricevuto, e chiudo ;)

joshA
05-05-2007, 19:35
infatti niente OT ;)

cmq questa è la mia preferita...appena l'ho vista me ne sn innamorato...

http://www.free4up.com/view.axd?fn=255139044010069.jpg

ma lol..ha anke il cavo alimentazione ventola a parte..lo si deve attaccare all'ali....azzo se ciuccia quella ventola

ale0bello0pr
05-05-2007, 19:39
ma lol..ha anke il cavo alimentazione ventola a parte..lo si deve attaccare all'ali....azzo se ciuccia quella ventola

ovviamente sarà watercooled in qualke modo :D kissà se il K5 sarà compatibile... :sbav:

tony73
05-05-2007, 19:45
infatti niente OT ;)

cmq questa è la mia preferita...appena l'ho vista me ne sn innamorato...

http://www.free4up.com/view.axd?fn=255139044010069.jpg

Che DIO benedica gli impianti a liquido :ave:

con la 1800 ai tempi dovetti penare quasi una settimana (non avevo la staffa adatta per la 1800) col reattore originale,nei giochi era semplicemente insopportabile dal casino che faceva,questa sembra ancora peggio! :eek: poi heat pipe o no il calore prodotto sara' veramente tanto.

Pero' da vedere è veramente bellina :sofico:

nitroin
05-05-2007, 19:48
Che DIO benedica gli impianti a liquido :ave:

con la 1800 ai tempi dovetti penare quasi una settimana (non avevo la staffa adatta per la 1800) col reattore originale,nei giochi era semplicemente insopportabile dal casino che faceva,questa sembra ancora peggio! :eek: poi heat pipe o no il calore prodotto sara' veramente tanto.

Pero' da vedere è veramente bellina :sofico:

Beh ma quella ventola non dovrebbe essere troppo rumorosa, sembra la stessa usata negli ultimi della thermaltake.

Dexther
05-05-2007, 19:49
anche secondo me, per quanto rumorosa possa essere lo sarà sicuramente meno di quei termoconvettori areonautici delle 1800/1900 :sofico:

nitroin
05-05-2007, 19:57
anche secondo me, per quanto rumorosa possa essere lo sarà sicuramente meno di quei termoconvettori areonautici delle 1800/1900 :sofico:

In ogni caso è silenziosissima!

http://www.thermaltake.com/product/Cooler/TMG/CL-G0076/cl-g0076.asp

Defragg
05-05-2007, 20:04
anche secondo me, per quanto rumorosa possa essere lo sarà sicuramente meno di quei termoconvettori areonautici delle 1800/1900 :sofico:

però malgrado il rumore raffreddavano bene :)

Defragg
05-05-2007, 20:06
e cmq la ventola della XT assomiglia tantissimo a quella delle 8800, quindi se i regimi di rotazioni saranno uguali o simili con la ventola all'80% si ha un'ottimo compromesso silenziosita/calore
o sbaglio?

Simon82
05-05-2007, 20:08
:ot:

;)

Defragg
05-05-2007, 20:25
non sò se sia OT o meno ma leggete la parte in grassetto

Nella giornata di ieri Intel ha dichiarato la sua supremazia nel settore dei microprocessori, affermando di non voler lasciare spazio ad AMD permettendole di riprendersi lo scettro prestazionale. Nella giornata di ieri vi abbiamo accennato la risposta di AMD per quanto concerne il processo produttivo, in cui Intel afferma di essere leader con 18/24 mesi sui rivali. L'azienda texana ha risposto a Intel più compiutamente, davanti a investitori e azionisti.

Hector Ruiz, CEO di AMD, ha dichiarato che non crede che il successo dei prodotti abbia a che fare interamente con il processo produttivo con cui è sviluppato. A dettaza di Ruiz, AMD non è così indietro come afferma Intel, ma si parla solo di "2 o 3 trimestri di svantaggio", puntalizzando che l'innovazione e la progettazione dei prodotti permetteranno all'azienda di recuperare terreno: "L'Opteron ha dimostrato questo quattro anni fa e Barcelona lo dimostrerà ancora".

Gli investitori hanno espresso preoccupazione sulla strategia di basso profilo prima di quello che l'azienda chiama "uno tsunami di nuovi prodotti," mentre Intel sta promuovendo pesantemente la sua futura lineup. Il presidente di AMD Dirk Meyer e il vice presidente esecutivo Henri Richard hanno spiegato che l'attuale strategia dell'azienda ha a che fare con il fatto che AMD è diventata "più cauta" nel divulgare i dettagli da rivelare in pubblico, e Intel ha iniziato a seguire AMD: "Ci sono ragioni di competitività sul perchè siamo diventati più silenziosi", afferma Meyer.

Tuttavia, Richard ha aggiunto che AMD intende "fare un lavoro migliore ed essere più comunicativa nel prossimo futuro".

Ruiz non ha rivelato nessuna informazione su nuovi prodotti in questo evento, ma ancora una volta diventa chiaro come tutte le speranze dell'azienda per il prossimo futuro siano riposte nel processore quad-core Barcelona.

"Ho molta fiducia che AMD sarà leader nell'industria per quanto riguarda i quad-core con questo processore" afferm Ruiz, che aggiunge "Riaffermeremo che l'Opteron è davvero il miglior processore al mondo".

questo spiegherebbe il silenzio quasi assoluto riguardo a R600 e non solo a Barcellona :)

Defragg
05-05-2007, 20:27
I primi sample delle schede Radeon HD 2900 sono nelle redazioni per i test e le recensioni, ma presto la scheda incomincerà a occupare gli scaffali dei negozi. Questo sarà il prodotto di punta di AMD e finirà senz'altro nelle mani di qualche smanettone che proverà a saggiarne i limiti in overclock.

http://www.tomshw.it/articles/20070504/tool1_c.gif
http://www.tomshw.it/articles/20070504/tool2_c.gif

Appare in rete un'utile strumento chiamato "AMD GPU Clock Tool" che, con una grafica molto simile ad ATiTool, vi pemetterà di modificare le frequenze 2D/3D delle schede HD 2000, nonchè monitorare la temperatura di lavoro della scheda. Lo strumento lavora sui chip RV610/630/R600 e su tutti i prodotti R5xx delle serie precedenti.

Sistemi operativi supportati? Windows 2000, Xp e Vista a 32 e 64 bit.

http://www.tomshw.it/news.php?newsid=9938

fede27
05-05-2007, 20:37
http://www.tomshw.it/news.php?newsid=9938
Dall'articolo:
una grafica molto simile ad ATiTool

..ma che dicono?? Comunque a me non funziona il rilevamento della temperatura.

CIaO

TecnoWorld8
05-05-2007, 20:54
se i valori di sm2 e sm3 rilevati da 3dmark06 sono corretti, questa scheda sarà oltre 2,5 volte + veloce della mia in sign...che fa circa 2000 in entrambi i test sintetici. se costerà davvero sotto i 400 euro, potrebbe essere un grande affare...

drifter91
05-05-2007, 21:29
ma è gia uscita questa scheda video?

Defragg
05-05-2007, 21:31
ma è gia uscita questa scheda video?

no, altrimenti non la staremmo aspettando :D

Roman91
05-05-2007, 23:08
è possibile un calo dei prezzi della serie 8* di nvidia dopo l'uscuta della r600 e le fije:mbe: ???

gianni1879
05-05-2007, 23:35
è possibile un calo dei prezzi della serie 8* di nvidia dopo l'uscuta della r600 e le fije:mbe: ???

dipenderà da quanto sarà valido r600 ;)

Dexther
06-05-2007, 00:27
è possibile un calo dei prezzi della serie 8* di nvidia dopo l'uscuta della r600 e le fije:mbe: ???

dipenderà da quanto sarà valido r600 ;)

anche se ci si spera un pò tutti :p

TecnoWorld8
06-05-2007, 02:07
il calo dei prezzi è cmq fisiologico, considerando che dall'uscita le G80 sono già diminuite parecchio. In ogni caso, credo che anche se una HD2900XT avesse prestazioni paragonabili a quelle di una GTX, quest'ultima costerebbe comunque di più, avendo più memoria.

Non tanto per il costo intrinseco della memoria, quanto per il fatto che molti acquirenti non conoscono bene i fatti reali ed il numero più "grande" per alcuni basta a motivare un costo maggiore.

Cmq lo scenario che io ipotizzo è il seguente, se la HD2900XT costerà realmente meno di 400€ al lancio e andrà più di una 8800GTS e magari meno o uguale ad una GTX:

GTX sui 500€
GTS sui 350€
GTS 320 sui 250€

se poi la HD2900XT venderà abbastanza, magari un calo ulteriore del 10% dei prezzi indicati nel giro di un mesetto.

The_SaN
06-05-2007, 03:37
Non tanto per il costo intrinseco della memoria, quanto per il fatto che molti acquirenti non conoscono bene i fatti reali ed il numero più "grande" per alcuni basta a motivare un costo maggiore.

Di solito chi compra una scheda da 500 e passa euro é un appassionato e conosce bene ció che compra ;)
Certo ci sono alcuni casi che mi contraddicono, ma davvero sporadici.

Di solito succede con schede come (ad esempio) una x1600 512mb....dove si pensa di fare "l' affare".

Secondo me se spendere 10euro per giocare al pc é un lusso, spenderne 500 é una passione :)

Tenebra
06-05-2007, 05:09
Per quel che può valere, riguardo alle 2600, nel forum di xbitlabs qualcuno che ha in mano le schede da recensire dice che, quoto testualmente "With what I've seen, nVIDIA's in big trouble with the 8500/8600 Series since ATi has got something good ready for the segment ".

Come si dice dalle mie parti, sperem :stordita:

giopro
06-05-2007, 06:21
Sulla questione prezzo: se AMD avesse imparato la lezione da Intel con i Core2, ovvero prodotto migliore venduto a minor (relativo) prezzo della concorrenza e lo applica in questo caso con una scheda migliore della controparte Nvidia?

Lo scenario sarebbe molto piacevole per noi :D

Ciao :)

yossarian
06-05-2007, 07:27
ma per andare a san francisco si passa per sunnyvale o santa clara???

a santa clara c'è anche un laboratorio di ricerca e sviluppo di ATi :D

yossarian
06-05-2007, 07:42
Uhm, e dunque quali ripercussioni pratiche potrebbe avere nell'architettura? Quali sarebbero i vantaggi rispetto ad una più tradizionale oltre al fatto che, da come mi pare di aver capito dal sito di Intrinsity, i clocks del core possono arrivare parecchio in alto?



tutti quelli derivanti dall'avere mos con tempi di risposta più brevi; il semplice aumento del clock serve solo ad aumentare il numero di cicli al secondo; questo però non migliora la velocità di risposta dei transistor. Una logica di tipo attivo, invece, permette di tenere sempre in pre-carica i gate dei mos (motivo per cui i consumi sono un po' più alti)

yossarian
06-05-2007, 07:43
Non avrei saputo spiegarlo meglio... :asd:

Domanda impertinente: :culo:
secondo te, osservando gli schemi di G80, è vera o no la superiorità del chip nVidia nell'uso dell'anisotropico?
Ci dobbiamo aspettare una qualità visiva migliore su G80, questa volta? :sofico:

come fai a fare simili deduzioni semplicemente basandoti su uno schema a blocchi di un chip?

yossarian
06-05-2007, 08:01
E' scritto nelle ultime slide che R600 è Very Large :sofico:

Per cui tutto sulle spalle dei driver, a quanto mi par di capire... :p

sicuro che si tratti di un'architettura VLIW pura?

gianluca84
06-05-2007, 08:54
ma le versioni di fascia media max 300 euro quando usciranno?

Kharonte85
06-05-2007, 09:16
che emozione scrivere da R600 :sbav::D

sono il primo che ha inaugurato questo thread :asd:
:eek:
sto vendendo la mia X1900 XT :D :ops:
speriamo di ricavare 200 cucuzze :doh:
Ricordati degli amici (http://www.hwupgrade.it/forum/showthread.php?t=1306619) :fiufiu: e che esistono i pvt :fiufiu: :D
ma le versioni di fascia media max 300 euro quando usciranno?
:boh: ma il 14 si dovrebbe sapere (si spera)

Defragg
06-05-2007, 09:27
a santa clara c'è anche un laboratorio di ricerca e sviluppo di ATi :D

:asd:

Defragg
06-05-2007, 09:29
ma le versioni di fascia media max 300 euro quando usciranno?

entro un mese dalla presentazione della prima scheda spero :boh:

cmq sui 300€ ci sarebbe (visti i prezzi) nel migliore dei casi la HD2900XL e nel peggiore la HD2900GT/GTO/Pro :blah:

resta solo da aspettare :fagiano:

Defragg
06-05-2007, 09:30
tutti quelli derivanti dall'avere mos con tempi di risposta più brevi; il semplice aumento del clock serve solo ad aumentare il numero di cicli al secondo; questo però non migliora la velocità di risposta dei transistor. Una logica di tipo attivo, invece, permette di tenere sempre in pre-carica i gate dei mos (motivo per cui i consumi sono un po' più alti)

quindi mi pare di capire che R600 ha una logica di tipo attivo? :stordita: o sbaglio? :fagiano:

A.L.M.
06-05-2007, 09:30
Di solito chi compra una scheda da 500 e passa euro é un appassionato e conosce bene ció che compra ;)
Certo ci sono alcuni casi che mi contraddicono, ma davvero sporadici.

Di solito succede con schede come (ad esempio) una x1600 512mb....dove si pensa di fare "l' affare".

Secondo me se spendere 10euro per giocare al pc é un lusso, spenderne 500 é una passione :)

Beh, a giudicare da quello che si legge in alcuni thread ufficiali di certe schede video DX10 abbastanza costose direi che c'è anche una bella fetta di utenza che compra certe schede avendo una conoscenza di pc infima... :asd:

tutti quelli derivanti dall'avere mos con tempi di risposta più brevi; il semplice aumento del clock serve solo ad aumentare il numero di cicli al secondo; questo però non migliora la velocità di risposta dei transistor. Una logica di tipo attivo, invece, permette di tenere sempre in pre-carica i gate dei mos (motivo per cui i consumi sono un po' più alti)

Questo vantaggio rispetto ai normali CMOS quindi tende a migliorare l'efficienza di un'architettura come quella di R600? Secondo te potrebbe contribuire a ridurre, seppur di poco, il gap presunto con le prestazioni di G80 in quelle situazioni in cui il set di istruzioni da calcolare è "favorevole" alle nVIDIA? :confused: :help:

sicuro che si tratti di un'architettura VLIW pura?

Esistono anche architetture "ibride" RISC-VLIW? :eek:


A latere, un paio di interventi fatti da Kinc su XtremeSystems:

Originally Posted by Kinc
It can't do 1000MHz on stock cooler. That would be sick really


Originally Posted by Kinc
Yeah. For every overclocker this card will be a wet dream For me its always nice to know that there is much headroom by just removing more heat.

Those who like to build with watercooling will find the perf. gain from building with a high end watercooling system very pleasing.

Foglia Morta
06-05-2007, 10:17
A latere, un paio di interventi fatti da Kinc su XtremeSystems:

si è arrivato a 885Mhz di core 2Ghz di mem con il dissi stock

tony73
06-05-2007, 10:22
Siamo a corto di idee,ci vuole una grossa novita' per riavvivare la discussione altrimenti da qui all'uscita della scheda si fa copia/incolla di quello detto fin'ora...qualcuno "che sa" rompa il silenzio! :read: tanto i dati tecnici contano come il 2 di pikke,qui si vuole sostanza: i freddi numeri di qualche bench!!! :sofico:

La realta' invece è che dovremo aspettare altri 8 giorni copia/incollando i soliti discorsi con hype a 3000;e noi si soffre :cry:

Kalua
06-05-2007, 10:29
c'è qlc foto, oltre quelle della versione oem in prima pagina, dove si mostra la scheda senza il dissipatore ?

per capire se saranno riciclabili i dissipatori/waterblock per la serie x1950 anche sulle nuove schede.. :rolleyes:

A.L.M.
06-05-2007, 10:30
Siamo a corto di idee,ci vuole una grossa novita' per riavvivare la discussione altrimenti da qui all'uscita della scheda si fa copia/incolla di quello detto fin'ora...qualcuno "che sa" rompa il silenzio! :read: tanto i dati tecnici contano come il 2 di pikke,qui si vuole sostanza: i freddi numeri di qualche bench!!! :sofico:

La realta' invece è che dovremo aspettare altri 8 giorni copia/incollando i soliti discorsi con hype a 3000;e noi si soffre :cry:

Anche un punteggio al 3DMark (che poi magari è la cosa più semplice da riferire) non sarebbe una gran rivelazione. Quello che servirebbe sono i test coi giochi, e quelli affidabili arriveranno dopo il 14. Comunque imho a partire dal pomeriggio dell'11 ci saranno molte più info: la sera del 10 (orario USA west coast) ci sarà il famoso party di San Francisco, e parecchi utenti di forum che non sono sotto NDA (soprattutto di HardOCP) avranno la possibilità di vedere R600 e captare indiscrezioni. A partire dal pomeriggio (fuso italiano) dell'11 mi aspetto un flusso di notizie notevole. ;)

Foglia Morta
06-05-2007, 10:36
http://img523.imageshack.us/img523/6871/tdpvfr600td6.jpg

esticbo
06-05-2007, 10:38
Queste sono nuove foto ke vengono dalla España da un forero nn sotto NDA

http://www.telefonica.net/web2/hitmaker/2900XT1024_04.PNG

http://www.telefonica.net/web2/hitmaker/2900XT1024_03.PNG

Foglia Morta
06-05-2007, 10:43
c'è qlc foto, oltre quelle della versione oem in prima pagina, dove si mostra la scheda senza il dissipatore ?

per capire se saranno riciclabili i dissipatori/waterblock per la serie x1950 anche sulle nuove schede.. :rolleyes:

ci sono foto anche senza dissi , ma ora non le trovo.

queste di shamino non erano state postate

http://resources.vr-zone.com.sg/Shamino/news/cooledr6003.jpg

http://resources.vr-zone.com.sg/Shamino/news/cooledr6001.jpg

Dexther
06-05-2007, 10:48
ma il primo è il dissi senza la copertura in plastica o uno messo su da shamino x bench?

il secondo pare quello delle versioni OC :mc:

Foglia Morta
06-05-2007, 10:54
nessuno dei 2 è quello stock , li ha messi shamino

Dexther
06-05-2007, 10:54
nessuno dei 2 è quello stock , li ha messi shamino

ok :p

nitroin
06-05-2007, 10:56
ma il primo è il dissi senza la copertura in plastica o uno messo su da shamino x bench?

il secondo pare quello delle versioni OC :mc:

Il primo è uno che utilizzano anche in vr-zone per occare...

Se fai qualche ricerca l'hanno utilizzato anche quando hanno portato le 8600gt al giga di frequenza, quindi non è lo "stock cooler"

Il secondo potrebbe invece essere come dici tu...ma troppo piatto sopra il core imho

A.L.M.
06-05-2007, 10:56
http://img523.imageshack.us/img523/6871/tdpvfr600td6.jpg

Mi pare strano che però le GDDR3 consumino come le GDDR4... :mbe:

@esticbo:

Già postate. :)
Il ragazzo che ha fatto i test comunque dovrebbe essere cinese. ;)

Robbysca976
06-05-2007, 10:58
Avete notato ke ha collegato i due connettori di alimentazione? :) 220W :cry: