PDA

View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT


Pagine : 1 2 [3] 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31

halduemilauno
17-03-2007, 16:23
Quoto! :O



Beh, comunque potrebbe indicare anche che il puntare a soluzioni più avanzate (che per certi versi ha portato dei ritardi) non è stato sbagliato a priori.



Non è che ci sia poi tanta differenza tra 768MB e 1GB: allora anche la ram delle 8800GTX serve solo a chi ha un 42"? ATI ha mantenuto il classico frazionamento delle memorie, dunque lo step successivo a 512 è stato giocoforza 1GB... Senza contare che le GDDR4 sono memorie migliori e molto costose.
In più la scelta di rimanere su un frazionamento "normale" da' il vantaggio di avere 512MB anche sulla X2900XL, che è la concorrente ideale della 8800GTS 320MB (che sono pochini).

è quello che ho detto.
beh 768 son un pò + sfruttabili alle ris dei 24 e soci. nel senso come dicevo prima i 1024 sono esagerati. praticamente un'operazione che ti fa dire io ho un giga e tu no. si deve tener conto dei prezzi che ci saranno. un giga di gddr4 costa un botto.
;)

Defragg
17-03-2007, 16:26
quindi sei d'accordo con me che è una mossa marketing. tu aggiungi ora e poi dici che nel 2009 sarà necessario o cmq da preferire un giga. si forse ma nel 2009 quella scheda non la si salva nemmeno e nonostante il suo giga. quindi all'inizio inutile dopo quando potrà servire non ce la farà il resto. daltronde con la corsa sfrenata che è in atto...
24 pollici? buono.
;)

a me sembrano anche i 320, 640 e 768 Mb di memoria RAM delle 8800 una mossa di marketing...
i numeri strani attirano l'attenzione ;)

imho il Gb è sia un obiettivo di marketing, sia una scelta per quelli che pretendono l'XHD gaming (2560x1600 e filtri), visto che la sia la quantità di memoria, che la banda della stessa possono garantire prestazioni adeguate
;)

Defragg
17-03-2007, 16:31
un giga di gddr4 costa un botto.
;)

e 768Mb di gddr3? :mbe:

A.L.M.
17-03-2007, 16:32
Tornando alle notizie, il sito francese HardWare.fr anticipa che, stando alle indiscrezioni di un partner AMD, l'R600 con 512MB di vram GDDR3 (che dovrebbe essere l'XT) potrebbe essere messo in vendita a fine aprile a 500€.
In quel periodo la GTX dovrebbe costare sui 400-450€, e dovrebbe essere lanciata la 8800 Ultra (ossia una GTX occata, ma c'è pure chi parla di GDDR4), che andrà a prendere il posto della GTX nella fascia oltre i 500€, credo.

halduemilauno
17-03-2007, 16:33
e 768Mb di gddr3? :mbe:

molto di - no.

fukka75
17-03-2007, 16:35
e 768Mb di gddr3? :mbe:

Considerando che le GDDR4 sono sul mercato da poco tempo, mentre le GDDR3 sono lo standard ormai da un paio di anni, e anche più, direi che non c'è confronto tra 1GB di GDDR4 e 768MB di GDDR3 (le GDDR4 costano decisamente di più) ;)

TecnoWorld8
17-03-2007, 16:48
non so se nel 2009 questa scheda sia proprio da buttare; ovvio, non ho la sfera di cristallo, ma posso basarmi sul passato. Una scheda di altissimo livello, di solito tiene discretamente per 2 anni. dato che questa scheda esce a metà 2007, mi aspetto che fino al 2009 regga, facendosi un intero 2008 ancora ad alto livello.

Penso in particolare alla X1800xt, che è uscita a fine 2005 e con un minimo overclock permette - ancora oggi - di giocare a 1280x1024 al massimo dettaglio e AA a quasi tutti i giochi...

Athlon 64 3000+
17-03-2007, 16:48
Se la X2900XT dovesse essere veloce quanto la 8800GTX significherebbe che la XTX sarebbe più veloce(ci arriverebbe anche un muro) e sono curioso di vedere se Nvidia si presenterà con una versione di G80 con frequenze più pompate oppure con il fatidico G81 che potrebbe incarnare le 8900.

A.L.M.
17-03-2007, 16:54
Se la X2900XT dovesse essere veloce quanto la 8800GTX significherebbe che la XTX sarebbe più veloce(ci arriverebbe anche un muro) e sono curioso di vedere se Nvidia si presenterà o con una versione di G80 con frequenze più pompate oppure con i fatidico G81 che potrebbe incarnare le 8900.

Uscirà la 8800 Ultra, come ho già scritto. Una GTX pompata e, forse, con le GDDR4.
Le 8900 usciranno nel Q4 2007, imho.

Defragg
17-03-2007, 17:13
molto di - no.

certo, ma ti ricordo che il prezzo delle 8800 era alto soprattutto per colpa della memoria :)

halduemilauno
17-03-2007, 17:15
certo, ma ti ricordo che il prezzo delle 8800 era alto soprattutto per colpa della memoria :)

appunto e quindi a maggior ragione lo sarà per la x2900xtx.

Defragg
17-03-2007, 17:20
appunto e quindi a maggior ragione lo sarà per la x2900xtx.

beh...la X1950XTX montava 512Mb di GDDR4 eppure costava 399€ al lancio, vedremo R600, imho la versione XTX da 1Gb 580/620€, quella da 512Mb 480/510€ la XT da 512Mb 450€ o giù di lì

ma purtroppo non ho la sfera di cristallo e non posso prevedere il futuro :( :D

halduemilauno
17-03-2007, 17:23
beh...la X1950XTX montava 512Mb di GDDR4 eppure costava 399€ al lancio, vedremo R600, imho la versione XTX da 1Gb 580/620€, quella da 512Mb 480/510€ la XT da 512Mb 450€ o giù di lì

ma purtroppo non ho la sfera di cristallo e non posso prevedere il futuro :( :D

ma quelli sono i prezzi che + di uno ha gia avanzato. e come gia detto + o - mi trovano d'accordo.

gianni1879
17-03-2007, 18:16
beh...la X1950XTX montava 512Mb di GDDR4 eppure costava 399€ al lancio, vedremo R600, imho la versione XTX da 1Gb 580/620€, quella da 512Mb 480/510€ la XT da 512Mb 450€ o giù di lì

ma purtroppo non ho la sfera di cristallo e non posso prevedere il futuro :( :D

beh quasi quasi la XT me la farei volentieri ;)

cmq se fossero realmente questi i prezzi non sono proprio male ;)

A.L.M.
17-03-2007, 18:23
appunto e quindi a maggior ragione lo sarà per la x2900xtx.

Che però compenserà con i 65nm, che fanno costare meno tutto il resto della scheda... ;)

Kharonte85
17-03-2007, 18:26
Che però compenserà con i 65nm, che fanno costare meno tutto il resto della scheda... ;)
sognatore...:asd:

Window Vista
17-03-2007, 18:43
Bboni......

A.L.M.
17-03-2007, 19:13
sognatore...:asd:

Non potrà mai costare più della 8800GTX appena uscita. :asd:

Dexther
17-03-2007, 19:14
Non potrà mai costare più della 8800GTX. :asd:

in tal senso oramai non mi meraviglio più di nulla :boh:

appleroof
17-03-2007, 19:16
Non potrà mai costare più della 8800GTX appena uscita. :asd:

in tal senso oramai non mi meraviglio più di nulla :boh:

infatti...al limite costerà quanto quella al lancio, e cmq la 8800gtx che già ora si comincia trovare appena sotto i 500, sarà cmq più conveniente, a meno che R600 vada sensibilmente (intendo almeno il 30%) in più, cosa che renderebbe l'acquisto più "sensato" (ammesso che spendere per una vga lo sia in assoluto :D )

vedremo, anche qui solo ipotesi ;)

TecnoWorld8
17-03-2007, 20:06
secondo me, arrivando 6 mesi in ritardo rispetto ad nvidia, ATi ha il "dovere morale" di presentare una soluzione più potente. Ovviamente, con la potenza, ci sarà anche il prezzo più elevato, ma se con 600 euro si porta a casa una scheda del 30% più veloce di una 8800gtx, allora diciamo che "ci possono stare"

MaBru
17-03-2007, 22:07
Si vociferava di un R600 a 80 nm e 800 Mhz il 10% più potente di G80. Ad una frequenza di 1 Ghz sarebbe il 30% più potente. :stordita:
Ho fatto bene ad aspettare!
Penso che il gigahertz sia il tetto massimo, non la frequenza di default alla quale usciranno le schede.

MaBru
17-03-2007, 22:08
ma dal ritardo nell'averla disponibile sul mercato al ritrovarsi in anticipo nel processo produttivo non è da poco. significa ho perso del tempo(per vari motivi)ma l'ho messo a frutto.
Da quando fai post così equilibrati parlando di ATI?:D

bluefrog
17-03-2007, 22:11
Da quando fai post così equilibrati parlando di ATI?:D

lol :D

Alexkidd85
17-03-2007, 22:12
Se fosse vero l'uscita di xtx a 512 gddr3 e xt 512 gddr3,spero solo che non cambino le unità di vertex e pixel shading come per le x1900xtx e le xt.
Se così fosse le 100 euro in meno sarebbero solo tutte guadagnate...in overclock :asd:

TecnoWorld8
17-03-2007, 22:42
da quanto ne so, non dovrebbe esistere una XT, ma due modelli di XTX, una con 512MB e l'altra con 1GB. Le caratteristiche tecniche "dovrebbero" essere identiche tra le due, a meno della memoria (un po' come è ora tra la 8800GTS da 320MB e quella da 640MB).

Se così fosse e se la differenza fosse di "almeno" 100 Euro, potrebbe convenire la versione con 512MB.

dantes76
17-03-2007, 23:01
今天fx57网站公布了据称是R600XTX的测试成绩。根据fx57表示,R600系列显卡的正式名称是Radeon X2800。

fx57表示,他们测试了Radeon X2800XTX、Radeon X2800XT,参加对比测试的有GeForce 8800 GTX、GeForce 8800 GTS。首先我们来看3DMark03 Pro v.3.6.0得分,测试采用处理器AMD Athlon64 FX55 , WHQL驱动程序, 分辨率1024×768 noAA noAF:

X2800XTX ————43606

8800GTX—————-41264

X2800XT —————34623

8800GTS—————-32567

7950GX2 —————29257

接下来我们来看3DMark05 Pro v1.2.0 Final测试得分,测试采用处理器AMD Athlon64 FX55 , WHQL驱动程序, 分辨率1024×768 noAA noAF:

X2800XTX ————17387 ——–700/2200

X2800XT ————-16135 ——–625/1800

8800GTX————–15467 ——–575/1800

8800GTS————–13773 ——–500/1600

7950GX2————–12886 ——–500/1200


ATI Radeon X2800 XTX浮点计算能力达到614.4GFlops,核心工作频率700MHz,显存工作频率2.2GHz,显存位宽140.8GB/s,每秒进行87200 次着色操作,像素填充率19600 MPixels/秒,纹理填充率19600 MTexels/秒,每秒进行15600M顶点操作。

在Intel(R) Core(TM)2 Extreme QX6700 @ 5300MHz (353.3×15)平台上测试ATI Radeon X2800XTX 1GB 512bit 0.85ns GDDR4 @ 700MHz/2200MHz的3DMARK06得分:

3DMark Score 15032 3DMarks

SM 2.0 Score 5754 Marks

SM 3.0 Score 5841 Marks

CPU Score 7615 Marks

sono stati gia' postati ? :D

DVD2005
17-03-2007, 23:04
sono stati gia' postati ? :D

no :D

fonte?

dantes76
17-03-2007, 23:07
no :D

fonte?

moment che arriva la fonte:D

cercare nei siti cinesi non e' una parola, non conoscendo una parola di cinese :D

EDIT: Fonte

http://www.sdbear.com/2/lib/200702/15/20070215056.htm

TecnoWorld8
17-03-2007, 23:17
ad "occhio" direi che è ancora la versione a 0.80

johnson
18-03-2007, 03:31
ad "occhio" direi che è ancora la versione a 0.80

Anche se così fosse sarebbe una bomba :eek: !

esticbo
18-03-2007, 07:01
doppio post sorry

esticbo
18-03-2007, 07:03
Traduzione in Inglese (http://translate.google.com/translate?u=http%3A%2F%2Fwww.sdbear.com%2F2%2Flib%2F200702%2F15%2F20070215056.htm&langpair=zh%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) dell'articolo trovato da dantes76

halduemilauno
18-03-2007, 07:55
Da quando fai post così equilibrati parlando di ATI?:D

beh certo una frase simile a chi a prescindere negava il ritardo credo che non la farai mai.
;)

A.L.M.
18-03-2007, 08:04
Traduzione in Inglese (http://translate.google.com/translate?u=http%3A%2F%2Fwww.sdbear.com%2F2%2Flib%2F200702%2F15%2F20070215056.htm&langpair=zh%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) dell'articolo trovato da dantes76

E' un fake piuttosto old. Guardate il clock della cpu... :asd:
Tra l'altro è impossibile che una scheda da 17000 punti al 2005 faccia 15000 al 2006...

esticbo
18-03-2007, 08:13
....Tra l'altro è impossibile che una scheda da 17000 punti al 2005 faccia 15000 al 2006...

Nel 2005 utilizzano un fx55 e nel 2006 un Core 2 Extreme QX6700 @ 5300 MHz (353.3 × 15) :D

halduemilauno
18-03-2007, 08:33
Nel 2005 utilizzano un fx55 e nel 2006 un Core 2 Extreme QX6700 @ 5300 MHz (353.3 × 15) :D

appunto cloccato a 5300. la 8800gtx con un 6700 default ottiene 11953 e una x2900xtx 1xxx8. bisognerebbe provare una 8800gtx in quel sistema.
;)

A.L.M.
18-03-2007, 08:47
appunto cloccato a 5300. la 8800gtx con un 6700 default ottiene 11953 e una x2900xtx 1xxx8. bisognerebbe provare una 8800gtx in quel sistema.
;)

Quei risultati sono dei fake. All'epoca del "test" esisteva solo un QX6700 occato a 5300 al mondo, ed era in Italia, non in Cina. ;)
http://www.oclabs.com/pfocus.php?docid=1309

gianni1879
18-03-2007, 08:50
Nel 2005 utilizzano un fx55 e nel 2006 un Core 2 Extreme QX6700 @ 5300 MHz (353.3 × 15) :D

in ogni caso se fosse vero credo che si tratti sempre della 80nm.

boh staremo a vedere ormai si avvicina il momento in cui le vedremo

halduemilauno
18-03-2007, 08:52
Quei risultati sono dei fake. All'epoca del "test" esisteva solo un QX6700 occato a 5300 al mondo, ed era in Italia, non in Cina. ;)
http://www.oclabs.com/pfocus.php?docid=1309

ok prendo atto. ma perchè all'epoca del test? quando è o sarebbe stato fatto?
;)

appleroof
18-03-2007, 09:00
Si ragazzi, quei test erano stati già postati nei vecchi tread su R600, sono un fake ;)



@halduemilauno:

mi pare di ricordare fine gennaio/primi di febbraio

A.L.M.
18-03-2007, 09:08
Si ragazzi, quei test erano stati già postati nei vecchi tread su R600, sono un fake ;)



@halduemilauno:

mi pare di ricordare fine gennaio/primi di febbraio

Infatti.
Tra l'altro in questa notizia ( http://www.hwstation.net/news/4/248.html ) si specifica come i test con clocks del core sotto gli 800MHz siano fake, e la cosa è stata confermata da portavoce di AMD. ;)

Comunque, ritornando alle notizie...

Oggi cominciano a delinearsi le specifiche delle nuove proposte fullDX10 di AMD\ATI per fasce di mercato mainstream e low-end: X2300 ed X2600, basate su GPU RV630 e RV610 tutte e due costruite per la prima volta con processo produttivo a 65nm.

Vediamo le specifiche trecniche e i vari modelli che ATI introdurrà nel mercato dall´inizio di marzo in concomitanza, si pensa, con la presentazione di R600.

RV630 darà vita a Radeon X2600XT e PRO

Radeon X2600XT

* core-clock di 650MHz
* 256 MB di ram GDDR3 operante a 1600MHz
* 64 Shaders
* Il controller di memoria a 128 bit
* Prezzo : 200 dollari/€.


Radeon X2600 Pro

* Core clock di 550 MHz
* 256Mb di ram GDDR3 operante a 1400 MHz
* Controller memoria 128 bit
* 64 shader
* Prezzo : 150 dollari/€.


RV610 Costituirà la serie X2300XT, Pro ed LE con queste caratteristiche :

Radeon X2300 XT

* core clock : 650 MHz
* 256Mb di ram GDDR3 a 1400 MHz
* 128 bit memory controller
* 32 shader
* Prezzo : 100 dollari/€


Radeon X2300 Pro

* Core clock : 500 MHz
* 1400 MHz ram GDDR3
* 128 bit memory controller
* 32 shader
* Prezzo : 80 dollari/€ per la versione con 256 MB e 70 dollari/€ per quella con 128 MB


Radeon X2300 LE

* Core clock : 500 MHz
* 800 MHz ram GDDR2
* 128 bit memory controller
* 32 shader
* Prezzo : 60 dollari/€ per 128 MB.

http://www.hwstation.net/news/4/242.html

La notizia risale a un mesetto fa, ma i prezzi mi paiono verosimili: per i clocks, invece, è tutto da verificare. ;)

halduemilauno
18-03-2007, 09:11
Si ragazzi, quei test erano stati già postati nei vecchi tread su R600, sono un fake ;)



@halduemilauno:

mi pare di ricordare fine gennaio/primi di febbraio

ok.
;)

halduemilauno
18-03-2007, 09:12
Infatti.
Tra l'altro in questa notizia ( http://www.hwstation.net/news/4/248.html ) si specifica come i test con clocks del core sotto gli 800MHz siano fake, e la cosa è stata confermata da portavoce di AMD. ;)

Comunque, ritornando alle notizie...



http://www.hwstation.net/news/4/242.html

La notizia risale a un mesetto fa, ma i prezzi mi paiono verosimili: per i clocks, invece, è tutto da verificare. ;)

avevo letto che le rv610 fossero tutte con il bus a 64 bit.
;)

A.L.M.
18-03-2007, 09:15
avevo letto che le rv610 fossero tutte con il bus a 64 bit.
;)

Ok, mi correggo: buona parte delle info tecniche è da verificare... :D

appleroof
18-03-2007, 09:21
Infatti.
Tra l'altro in questa notizia ( http://www.hwstation.net/news/4/248.html ) si specifica come i test con clocks del core sotto gli 800MHz siano fake, e la cosa è stata confermata da portavoce di AMD. ;)

Comunque, ritornando alle notizie...

cut

La notizia risale a un mesetto fa, ma i prezzi mi paiono verosimili: per i clocks, invece, è tutto da verificare. ;)

anche perchè se così fosse la 2600xt sarebbe "cannibalizzata" dalla 2600pro, visto che con un minimo di oc si avrebbe la stessa scheda....

halduemilauno
18-03-2007, 09:30
http://www.hardware.fr/news/lire/17-03-2007/#8691

Une des marques proposant des produits ATI a pu nous donner plus d’informations concernant le planning de sortie des R600, ou des X2900 si l’on utilise le nom commercial.

Selon les documents qui nous ont été montrés, les échantillons d’évaluation destinés aux clients d’ATI de la carte Catseye 102-B600, qui correspond à la X2900 XT accompagnée de 512 Mo de GDDR3, sont prévus pour le 22 mars, même si en l’occurrence ATI a envoyé sur le CeBIT à chacun d’eux une machine de démo équipé d’une carte afin qu’ils la montre à leurs propres clients.

Comme c’est désormais l’habitude sur le haut de gamme, ATI livrera aux fabricants des cartes qu’il a fait fabriquer par un sous-traitant, et les premières livraisons du produit final sont prévues pour le 21 avril. La disponibilité pour l’utilisateur est du coup prévu pour le lancement soit début mai, le temps de coller les logos (sic), de mettre les cartes dans les boites et de les dispatcher à travers le monde.

On notera que le même document fait toujours état de la Dragonshead 2 102-B007, soit la X2900 XTX accompagnée de 1 Go de DDR4. Le dates sont les mêmes pour les échantillons, à savoir le 22 mars, les produits finaux étant prévu pour 1 avril et la disponibilité pour mi-mai. Toutefois, étant donné que selon un autre fabricant cette carte pourrait aux toutes dernières nouvelles ne pas voir le jour, on ne sait trop à quel saint se vouer !

l'ultima frase è emblematica.

;)

A.L.M.
18-03-2007, 09:36
Rumors sul lancio di R600:

WITH SO MANY HACKS constantly talking to AMD's partners about the R600 and tapping in the dark about the launch, everything is at fever pitch in the press office.

But the details are as follows. AMD is preparing the biggest launch in history of graphics chips.

Since, we understand, the company pulled an unexpected move with a complete switch to a 65 nm process at TSMC, it seems that a new manufacturing alliance is emerging, since AMD is currently in various partnership deals with IBM and so Sony, Toshiba, Chartered, UMC and of course, TSMC.

AMD will probably ship well over 100 million 65 nanometre chips in 2007, and decided to start their own graphics adventure with a bang. We learned that the firm is inviting a ton of partners for a huge 3D-wide PR briefing - close to 200 journos will arrive at the press event and the plan is for each and every member of the press to get a taste of 65 nano chippery. µ

http://www.theinquirer.net/default.aspx?article=38300

Ed ecco il famigerato video di Ruby....

http://www.rage3d.com/board/showpost.php?p=1334854109&postcount=3704

Sembra che impieghi oltre 700MB di textures.

A.L.M.
18-03-2007, 09:42
l'ultima frase è emblematica.

;)

A me invece pare una cavolata, dato che hanno già fatto un techdemo che sfrutta più di 512MB di vram: cos'è, fanno una demo che nessuna scheda può far girare?

halduemilauno
18-03-2007, 09:45
A me invece pare una cavolata, dato che hanno già fatto un techdemo che sfrutta più di 512MB di vram: cos'è, fanno una demo che nessuna scheda può far girare?

l'ho definita emblematica mica ho detto oro colato. e cmq ho riportato l'intera news con relativo link. interessanti i tempi.
;)

A.L.M.
18-03-2007, 09:47
l'ho definita emblematica mica ho detto oro colato. e cmq ho riportato l'intera news con relativo link. interessanti i tempi.
;)

Beh, è emblematica del fatto che alcuni partner di AMD siano scaxxati. :sofico:

halduemilauno
18-03-2007, 09:49
Beh, è emblematica del fatto che alcuni partner di AMD siano scaxxati. :sofico:

e i newser non sanno più a quale santo votarsi.
;)

appleroof
18-03-2007, 09:54
cut

Ed ecco il famigerato video di Ruby....

http://www.rage3d.com/board/showpost.php?p=1334854109&postcount=3704

Sembra che impieghi oltre 700MB di textures.

Bellissimo il video, non c'è che dire, sopratutto le espressioni facciali all'inizio sono fenomenali...quanto sia attendibile (nel senso che potrebbe essere CG) sappiamo...però bello ;)

fukka75
18-03-2007, 10:03
Io non mi lascerei impressionare dai video di lancio di una nuova vga di fascia alta (ATI o nVidia che sia): un conto è il sw di uso comume (leggasi videogiochi) un altro è la panoplia di effetti speciali e colori ultravivaci che ci propinano ogni volta per farci vedere quanto sono fighi e bravi a sfruttare la vga che loro stessi hanno creato ;)
Detto questo il video è cmnq molto bello

appleroof
18-03-2007, 10:05
Io non mi lascerei impressionare dai video di lancio di una nuova vga di fascia alta (ATI o nVidia che sia): un conto è il sw di uso comume (leggasi videogiochi) un altro è la panoplia di effetti speciali e colori ultravivaci che ci propinano ogni volta per farci vedere quanto sono fighi e bravi a sfruttare la vga che loro stessi hanno creato ;)
Detto questo il video è cmnq molto bello

concordo, hai espresso meglio quello che volevo dire :)

T3d
18-03-2007, 10:06
Bellissimo il video, non c'è che dire, sopratutto le espressioni facciali all'inizio sono fenomenali...quanto sia attendibile (nel senso che potrebbe essere CG) sappiamo...però bello ;)

no dai su... se è una techdemo non è fatta in cgi
da notare che la risoluzione è di 1280 x 720
mentre se si ha a disposizione un sistema crossfire si riesce a raggiungere i 1920x1200
Io non mi lascerei impressionare dai video di lancio di una nuova vga di fascia alta (ATI o nVidia che sia): un conto è il sw di uso comume (leggasi videogiochi) un altro è la panoplia di effetti speciali e colori ultravivaci che ci propinano ogni volta per farci vedere quanto sono fighi e bravi a sfruttare la vga che loro stessi hanno creato ;)
Detto questo il video è cmnq molto bello
concordo, ma è indicativo di quanto può essere sfruttata una scheda ;)
se poi gli sviluppatori dei giochi non lo fanno a pieno, beh.... colpa loro ;)

fukka75
18-03-2007, 10:24
Sappiamo bene che il sw di uso comune è ben lontano dallo sfruttamento completo delle vga di facia alta, e lo sanno anche le case produttrici (ATI o nVidia che sia): quando lanciano una super vga mica ti fanno vedere come gira con le applicazioni quotidiane, ma solo con video creati da loro e scritti apposta per far vedere "quello che può fare", e che ovviamente sono super-mega-ultra bellissimi e girano a mille mila fps. Chiamiamoli per quello che sono, cioè specchietti per allodole (chiedi ai poveri possessori delle 8800 quanto hanno dovuto penare per poter giocare a SCDA, altro che ruby, sirene e strafigone varie)

halduemilauno
18-03-2007, 10:30
Sappiamo bene che il sw di uso comune è ben lontano dallo sfruttamento completo delle vga di facia alta, e lo sanno anche le case produttrici (ATI o nVidia che sia): quando lanciano una super vga mica ti fanno vedere come gira con le applicazioni quotidiane, ma solo con video creati da loro e scritti apposta per far vedere "quello che può fare", e che ovviamente sono super-mega-ultra bellissimi e girano a mille mila fps. Chiamiamoli per quello che sono, cioè specchietti per allodole (chiedi ai poveri possessori delle 8800 quanto hanno dovuto penare per poter giocare a SCDA, altro che ruby, sirene e strafigone varie)

tanto esatto quanto ovvio.
;)

bluefrog
18-03-2007, 10:50
Non crediate che Crysis sia tanto distante da quella tech-demo eh... anzi.

A.L.M.
18-03-2007, 11:00
no dai su... se è una techdemo non è fatta in cgi
da notare che la risoluzione è di 1280 x 720
mentre se si ha a disposizione un sistema crossfire si riesce a raggiungere i 1920x1200

concordo, ma è indicativo di quanto può essere sfruttata una scheda ;)
se poi gli sviluppatori dei giochi non lo fanno a pieno, beh.... colpa loro ;)

Quotone.

Sappiamo bene che il sw di uso comune è ben lontano dallo sfruttamento completo delle vga di facia alta, e lo sanno anche le case produttrici (ATI o nVidia che sia): quando lanciano una super vga mica ti fanno vedere come gira con le applicazioni quotidiane, ma solo con video creati da loro e scritti apposta per far vedere "quello che può fare", e che ovviamente sono super-mega-ultra bellissimi e girano a mille mila fps. Chiamiamoli per quello che sono, cioè specchietti per allodole (chiedi ai poveri possessori delle 8800 quanto hanno dovuto penare per poter giocare a SCDA, altro che ruby, sirene e strafigone varie)

Beh, la storia di SCDA è abbastanza particolare, visto che è uno di quei giochi (come anche NFS:Carbon) che girano bene sulle ATI e male (rispetto alla potenza) sulle NVidia. Per Double Agent la colpa imho è da dividere a metà tra Ubisoft (è un gioco bellissimo ma esageratamente pieno di bug) e NVidia, visto che mi sembra evidente che fosse anche un problema dei loro driver.

Non crediate che Crysis sia tanto distante da quella tech-demo eh... anzi.

Infatti. Per certi versi l'uso degli shader è migliore.

Kharonte85
18-03-2007, 12:03
Sappiamo bene che il sw di uso comune è ben lontano dallo sfruttamento completo delle vga di facia alta, e lo sanno anche le case produttrici (ATI o nVidia che sia): quando lanciano una super vga mica ti fanno vedere come gira con le applicazioni quotidiane, ma solo con video creati da loro e scritti apposta per far vedere "quello che può fare", e che ovviamente sono super-mega-ultra bellissimi e girano a mille mila fps. Chiamiamoli per quello che sono, cioè specchietti per allodole (chiedi ai poveri possessori delle 8800 quanto hanno dovuto penare per poter giocare a SCDA, altro che ruby, sirene e strafigone varie)
quoto...sono solo belli da vedere! :D

TecnoWorld8
18-03-2007, 12:06
il video non si vede troppo bene dunque è difficile giudicare; tuttavia devo ammettere che mi aspettavo qualcosa di meglio. Le cose notevoli (a parte l'indiscussa bellezza della modella cui Ruby è ispirata) sono il modo in cui è reso il materiale della tuta di Ruby e il movimento particellare calcolato in real-time della neve sollevata dallo snowboard...

per il resto, non vedo nulla di trascendentale.

T3d
18-03-2007, 12:07
il video non si vede troppo bene dunque è difficile giudicare; tuttavia devo ammettere che mi aspettavo qualcosa di meglio. Le cose notevoli (a parte l'indiscussa bellezza della modella cui Ruby è ispirata) sono il modo in cui è reso il materiale della tuta di Ruby e il movimento particellare calcolato in real-time della neve sollevata dallo snowboard...

per il resto, non vedo nulla di trascendentale.

ma come hai fatto a giudicare così in dettaglio un video dalla qualità pessima?
:)

TecnoWorld8
18-03-2007, 12:14
ripeto, sono impressioni e ho sottolineato come si veda male :)

mi pare di notare che la tuta abbia una bell'effetto tipo lattice, e come la neve sollevata abbia un movimento molto realistico. queste cose si notano abbastanza.

il resto è molto confuso, a parte il viso di Ruby che secondo me non è reso in modo sconvolgente, soprattutto rispetto a recenti immagini di Crysis...

Skullcrusher
18-03-2007, 12:59
Non crediate che Crysis sia tanto distante da quella tech-demo eh... anzi.

Già, in effetti potrebbe essere anche meglio...

Defragg
18-03-2007, 13:02
quoto...sono solo belli da vedere! :D

infatti...Ruby è proprio una fiQa XQ___ :sbav:

Grey 7
18-03-2007, 13:24
ripeto, sono impressioni e ho sottolineato come si veda male :)

mi pare di notare che la tuta abbia una bell'effetto tipo lattice, e come la neve sollevata abbia un movimento molto realistico. queste cose si notano abbastanza.

il resto è molto confuso, a parte il viso di Ruby che secondo me non è reso in modo sconvolgente, soprattutto rispetto a recenti immagini di Crysis...

io ho avuto impressioni completamente opposte, lo trovo molto bello :O quoto con chi diceva che crysis si dovrebbe assestare piu o meno su questi livelli

runk
18-03-2007, 13:45
i come back :O

ciao gray,ciao defragg,ci sono novità?ho visto che proprio in mia assenza sono uscite mille mila news,vi seccate a farmi un riassuntino? :)

Defragg
18-03-2007, 13:58
bentornato runk :)

le novità più importanti sono: iniziano a circolare immagini dei derivati di R600, gira il video della tech demo di ruby e il corsini ha visto l'R600

runk
18-03-2007, 14:02
bentornato runk :)

le novità più importanti sono: iniziano a circolare immagini dei derivati di R600, gira il video della tech demo di ruby e il corsini ha visto l'R600

grazie,anche della solidarietà,adesso la firma la puoi anche cambiare! :D
adesso mi faccio un giro per vedermi qualche immagine...sull'alimentazione si sa niente?2x6pin?ma i top di gamma ancora niente vero? :muro:

Grey 7
18-03-2007, 14:12
i come back :O
ciao gray

Grey grazie :D cmq io ne so quanto te, siam stati sospesi insieme, mo mi vado a leggere i post indietro :)

runk
18-03-2007, 14:23
Grey grazie :D cmq io ne so quanto te, siam stati sospesi insieme, mo mi vado a leggere i post indietro :)

sorry :D

cmq ho letto che le prime gpu r600 saranno ad 80nm per poi passare in tempi brevissimi ai 65nm che si dice consumeranno il 30% in meno,e,aggiungo io,andranno più forte in oc...

Athlon 64 3000+
18-03-2007, 14:34
sorry :D

cmq ho letto che le prime gpu r600 saranno ad 80nm per poi passare in tempi brevissimi ai 65nm che si dice consumeranno il 30% in meno,e,aggiungo io,andranno più forte in oc...

io penso invece che la versione commerciale di R600 uscirà direttamente a 65 nm.

Athlon 64 3000+
18-03-2007, 14:40
http://www.fudzilla.com/index.php?option=com_content&task=view&id=185&Itemid=1

R600 is hot and it is even hotter than anyone wants to admit. Last time I head 175W number and G80 should be around 135W but R600 is hitting even more.


Our sources confirmed that the numbers are even higher than anyone expected as it dissapates 200W. The 9.5 inch cooler involves heath pipes, dual slot and the fan blows the air out.


The 12.5 inch R600 probably branded as Radeon X2900XTX is for the OEMs only and can probably can last longer and pases the all tests. 200W is almost two times of the Quad core or Athlon FX heat dissipation.

runk
18-03-2007, 14:41
io penso invece che la versione commerciale di R600 uscirà direttamente a 65 nm.

lo penso anche io,non gli converrebbe secondo me,però questo si dice in rete...:)

Marko91
18-03-2007, 14:47
Andate oltre al aspetto artistico, guardate l'aspetto tecnico. Crysis non supera nemmeno la tech-demo ToyShop da questo punto di vista. :D

TecnoWorld8
18-03-2007, 14:49
spero davvero che, avendo fatto 30 posticipandone il rilascio, facciano 31 facendola uscire subito a 65nm...

penso che sarebbe un suicidio commerciale far uscire a breve distanza un die shrink e soprattutto sarebbe una caduta enorme di immagine far uscire una scheda che scalda come una stufa a legna e magari va solo il 10% in più di una 8800gtx che è sul mercato da mesi...

Grey 7
18-03-2007, 14:53
se uscisse gia a 65nm il tempo "perso" nei confronti di nvidia potrebbe trasformarsi in un vantaggio

runk
18-03-2007, 15:07
spero davvero che, avendo fatto 30 posticipandone il rilascio, facciano 31 facendola uscire subito a 65nm...

penso che sarebbe un suicidio commerciale far uscire a breve distanza un die shrink e soprattutto sarebbe una caduta enorme di immagine far uscire una scheda che scalda come una stufa a legna e magari va solo il 10% in più di una 8800gtx che è sul mercato da mesi...

concordo pienamente! ;)

Defragg
18-03-2007, 15:08
se uscisse gia a 65nm il tempo "perso" nei confronti di nvidia potrebbe trasformarsi in un vantaggio

esatto...contando che nvidia produce a 90nm i G80 le costano di più rispetto agli R600 anche se li vende a meno...uffa non ce la faccio più ad aspettare

TecnoWorld8
18-03-2007, 15:11
per me l'attesa non è un problema, dato che una scheda così potente mi sarà utile all'uscita di titoli che non appariranno almeno fino almeno a fine primavera...quando unitamente alla scheda acquisterò anche un monitor serio (24" 16:9).

Per questo ho la sincera speranza che si aspetti, ma si fornisca un prodotto veramente competitivo a 65nm...

Certo che però la curiosità è tantissima, molto più di quella che avevo nell'attendere le specifiche e prestazioni di G80...

Marko91
18-03-2007, 15:17
Ma questo era già stato postato?


AMD roadmap update on R600 - details confirmed!




"Twice the performance of R580" - from AMD...

The big daddy of them all, the Radeon X2900XTX (codenamed Dragons Head 2 in 9.5” size XTX configuration with GDDR4 memory), is due to hit shop shelves on 30th of March 2007 but it’s still unsure if they will actually make that date. Samples were already delivered to AMD’s partners last week and many companies will likely have R600 live demos on display at CeBIT. The Radeon X2900XT (codenamed Cats Eye also measuring 9.5” but with GDDR3 memory and reduced clock speeds about 15% below XTX) will hit shop shelves on 19th of April. Dragons Head 2 is actually already well into production and product will be delivered to AIB’s in just a few days from now.


Fonte:
http://www.tweaktown.com/news/7193/amd_roadmap_update_on_r600_details_confirmed/index.html

Il 30 Marzo sembra sarà lanciata la X2900XTX e il 19 Aprile la X2900XT con frequenze del core il 10-15% inferiori della top gamma.

Questi sono screen provenianti dalla techdemo. Sembra CG, altro che Crysis.

http://img58.imageshack.us/img58/3296/newsr600techdemocebit20co6.jpg

http://img6.picsplace.to/img6/27/Imgp5496.jpg.jpg
http://img6.picsplace.to/img6/27/Imgp5510.jpg
http://img6.picsplace.to/img6/27/Imgp5520.jpg
http://img6.picsplace.to/img6/27/Imgp5518.jpg

TecnoWorld8
18-03-2007, 15:21
da dove arriva questa news e soprattutto di quando è? se esce il 30 marzo dubito sarà a 65nm :(

sì, gli screenshots di ruby 4 sono notevoli...

Grey 7
18-03-2007, 15:22
but it’s still unsure if they will actually make that date
prendetele con le pinze ste notizie

Defragg
18-03-2007, 15:24
per me l'attesa non è un problema, dato che una scheda così potente mi sarà utile all'uscita di titoli che non appariranno almeno fino almeno a fine primavera...quando unitamente alla scheda acquisterò anche un monitor serio (24" 16:9).

Per questo ho la sincera speranza che si aspetti, ma si fornisca un prodotto veramente competitivo a 65nm...

Certo che però la curiosità è tantissima, molto più di quella che avevo nell'attendere le specifiche e prestazioni di G80...

guarda io ero molto più curioso di G80 a dire la verità...suscitava più interesse e sono rimasto abbastanza colpito da lui

certo, ora tutta l'attenzione è su R600, che promette tantissimo...speriamo che sorprenda anche lui :)

Defragg
18-03-2007, 15:25
http://img6.picsplace.to/img6/27/Imgp5518.jpg

stupenda :O

TecnoWorld8
18-03-2007, 15:26
sarà forse che quando si attendeva il G80, io avevo da poco acquistato la scheda video in firma (presa ad inizio agosto) con in mente proprio di spendere relativamente poco (230 euro) per poi attendere l'uscita del prossimo chip di ATi in vista dei giochi DX10, che non sarebbero usciti ancora per diversi mesi...

Sicuramente dal punto di vista tecnico G80 è stato un passo da giganti e R600 non sarà altrettanto spettacolare, essendoci già appunto in giro il chip nvidia da tempo, ma penso che ora sia un momento molto più "giusto" per l'uscita di una GPU DX10 rispetto a 4 mesi fa...

Marko91
18-03-2007, 15:27
da dove arriva questa news e soprattutto di quando è? se esce il 30 marzo dubito sarà a 65nm :(

sì, gli screenshots di ruby 4 sono notevoli...

Ho messo la fonte.
Guardando questa tabella proveniente dallo stesso sito, i consumi sono uguali ai rumor finora rilasciati, quando doveva essere a 80 nm.
http://images.tweaktown.com/imagebank/news_amdr600update_02.jpg
Che casino non si capisce più nulla! :cry:

Skullcrusher
18-03-2007, 16:02
Che casino non si capisce più nulla! :cry:

L'hai detto :stordita:

LCol84
18-03-2007, 16:14
il resto è molto confuso, a parte il viso di Ruby che secondo me non è reso in modo sconvolgente, soprattutto rispetto a recenti immagini di Crysis...

Ho visto dei video di crysis e vegetazione a aprte, le texture non mi sembravano poi così sconvolgenti.

Per quel poco che si riesca a vedere di ruby, a naso mi sembra nettamente superiore, quasi a livello di cg.
Crysis invece (ovviamente) seppure fantastico, per alcuni aspetti si vede chiaramente che è un gioco.
tutto imho ovviamente

PS: che con r600 ci si stia avvicinando sempre più alla cg nei giochi? :sbav:

DVD2005
18-03-2007, 16:25
L'hai detto :stordita:

ma quoto, siamo in balia dei rumors.

TecnoWorld8
18-03-2007, 16:27
la cg nei giochi, imho, è ancora lontana...diciamo almeno 3/5 anni. però sicuramente siamo di fronte ad approssimazioni degne di nota da ormai circa un annetto.

io sono anche curioso di sapere cos'altro potrà fare r600 con tutta quella potenza, a parte le computazioni di folding@home

Alexkidd85
18-03-2007, 16:28
Ho visto dei video di crysis e vegetazione a aprte, le texture non mi sembravano poi così sconvolgenti.

Per quel poco che si riesca a vedere di ruby, a naso mi sembra nettamente superiore, quasi a livello di cg.
Crysis invece (ovviamente) seppure fantastico, per alcuni aspetti si vede chiaramente che è un gioco.
tutto imho ovviamente

PS: che con r600 ci si stia avvicinando sempre più alla cg nei giochi? :sbav:

Secondo me siamo ancora troppo "colorosi" nei giochi....

A.L.M.
18-03-2007, 16:39
spero davvero che, avendo fatto 30 posticipandone il rilascio, facciano 31 facendola uscire subito a 65nm...

penso che sarebbe un suicidio commerciale far uscire a breve distanza un die shrink e soprattutto sarebbe una caduta enorme di immagine far uscire una scheda che scalda come una stufa a legna e magari va solo il 10% in più di una 8800gtx che è sul mercato da mesi...

se uscisse gia a 65nm il tempo "perso" nei confronti di nvidia potrebbe trasformarsi in un vantaggio

concordo pienamente! ;)

per me l'attesa non è un problema, dato che una scheda così potente mi sarà utile all'uscita di titoli che non appariranno almeno fino almeno a fine primavera...quando unitamente alla scheda acquisterò anche un monitor serio (24" 16:9).

Per questo ho la sincera speranza che si aspetti, ma si fornisca un prodotto veramente competitivo a 65nm...

Certo che però la curiosità è tantissima, molto più di quella che avevo nell'attendere le specifiche e prestazioni di G80...

Ormai è praticamente sicuro che tutta la lineup DX10 di ATI sarà a 65nm, lo dicono tutte le notizie più recenti.
Sui consumi, io direi che bisognerà attendere, dato che con tutta probabilità i valori che circolano sono relativi alla versione a 80nm. Ovviamente bisogna pensare che una vga che ha clocks di 2200 per le memorie e superiori ad 800 per il core consumerà tanto, anche se a 65nm.

A.L.M.
18-03-2007, 16:47
Un dettaglio dei cavi di alimentazione di R600

http://www.pcgameshardware.de/screenshots/original/1174220580601.jpg

http://translate.google.com/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2F%3Farticle_id%3D571589&langpair=de%7Cen&hl=it&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools

TecnoWorld8
18-03-2007, 16:53
crysis ed alan wake saranno secondo me i punti di svolta in questo senso, anche perchè introdurranno tecniche mutuate dal cinema e dalla cg appunto. poi ormai la fisica la fa da padrone e questo conferisce molto realismo ai giochi!

Simon82
18-03-2007, 18:22
Ho visto dei video di crysis e vegetazione a aprte, le texture non mi sembravano poi così sconvolgenti.

Per quel poco che si riesca a vedere di ruby, a naso mi sembra nettamente superiore, quasi a livello di cg.
Crysis invece (ovviamente) seppure fantastico, per alcuni aspetti si vede chiaramente che è un gioco.
tutto imho ovviamente

PS: che con r600 ci si stia avvicinando sempre più alla cg nei giochi? :sbav:

Teniamo conto di una "Piccola" cosa: una tech demo altro non e' che una scena automatizzata (real time ovviamente) che segue un certo iter e per essere spettacolare e' progettata in modo tale da applicare certi effetti, certi trucchi per sembrare appunto notevolmente cinematografica, sia come movimenti che come sfocature che come luci ecc ecc... non a caso se tu muovi il mouse per interagire con le tech demo di Ruby il realismo da Cg soffre un notevole decremento poiche' ci si rende conto maggiormente della finzione.
Ci sono artisti dietro quelle tech demo che scelgono a mo' di film le riprese e scene migliori allo scopo e cioe' quello di lasciare a bocca aperta.
Un gioco invece, scene d'animazione a parte, deve sorprendere in qualsiasi momento senza un percorso o angolazioni di ripresa predefiniti. In piu' nel gioco ci sono una miriade di altre cose da calcolare che sia sulla GPU o sulla CPU, cose che dalle tech demo sono completamente mancanti. ;)

E' un po' come vedere in un film una scena di un bosco verdissima, caldissima, con erba che si muove e una sensazione generale di "calore e benessere" proprio perche' quella sensazione era lo scopo originario del regista. La stessa scena vista dal vivo, lo stesso posto, ridimensionerebbe molto le sensazioni.
Stessa cosa per le foto turistiche, le cartoline ecc ecc...

Kharonte85
18-03-2007, 18:34
Teniamo conto di una "Piccola" cosa: una tech demo altro non e' che una scena automatizzata (real time ovviamente) che segue un certo iter e per essere spettacolare e' progettata in modo tale da applicare certi effetti, certi trucchi per sembrare appunto notevolmente cinematografica, sia come movimenti che come sfocature che come luci ecc ecc... non a caso se tu muovi il mouse per interagire con le tech demo di Ruby il realismo da Cg soffre un notevole decremento poiche' ci si rende conto maggiormente della finzione.
Ci sono artisti dietro quelle tech demo che scelgono a mo' di film le riprese e scene migliori allo scopo e cioe' quello di lasciare a bocca aperta.
Un gioco invece, scene d'animazione a parte, deve sorprendere in qualsiasi momento senza un percorso o angolazioni di ripresa predefiniti. In piu' nel gioco ci sono una miriade di altre cose da calcolare che sia sulla GPU o sulla CPU, cose che dalle tech demo sono completamente mancanti. ;)

E' un po' come vedere in un film una scena di un bosco verdissima, caldissima, con erba che si muove e una sensazione generale di "calore e benessere" proprio perche' quella sensazione era lo scopo originario del regista. La stessa scena vista dal vivo, lo stesso posto, ridimensionerebbe molto le sensazioni.
Stessa cosa per le foto turistiche, le cartoline ecc ecc...
In una parola è CG...:O :D

LCol84
18-03-2007, 18:34
Teniamo conto di una "Piccola" cosa: una tech demo altro non e' che una scena automatizzata (real time ovviamente) che segue un certo iter e per essere spettacolare e' progettata in modo tale da applicare certi effetti, certi trucchi per sembrare appunto notevolmente cinematografica, sia come movimenti che come sfocature che come luci ecc ecc... non a caso se tu muovi il mouse per interagire con le tech demo di Ruby il realismo da Cg soffre un notevole decremento poiche' ci si rende conto maggiormente della finzione.
Ci sono artisti dietro quelle tech demo che scelgono a mo' di film le riprese e scene migliori allo scopo e cioe' quello di lasciare a bocca aperta.
Un gioco invece, scene d'animazione a parte, deve sorprendere in qualsiasi momento senza un percorso o angolazioni di ripresa predefiniti. In piu' nel gioco ci sono una miriade di altre cose da calcolare che sia sulla GPU o sulla CPU, cose che dalle tech demo sono completamente mancanti. ;)

E' un po' come vedere in un film una scena di un bosco verdissima, caldissima, con erba che si muove e una sensazione generale di "calore e benessere" proprio perche' quella sensazione era lo scopo originario del regista. La stessa scena vista dal vivo, lo stesso posto, ridimensionerebbe molto le sensazioni.
Stessa cosa per le foto turistiche, le cartoline ecc ecc...

Si beh ovviamente, tutto è girato magistralmente ma io mi riferivo proprio a livello di poligoni e alle texture sperando che anche i giochi arriveranno a questo livello nel più breve tempo possibile.
Poi ovviamente nella tech demo tutto è miscelato a regola d'arte, ma cmq la grafica è un bel balzo avanti rispetto a qualsiasi gioco. :D

Kharonte85
18-03-2007, 18:36
Si beh ovviamente, tutto è girato magistralmente ma io mi riferivo proprio a livello di poligoni e alle texture sperando che anche i giochi arriveranno a questo livello nel più breve tempo possibile.
Poi ovviamente nella tech demo tutto è miscelato a regola d'arte, ma cmq la grafica è un bel balzo avanti rispetto a qualsiasi gioco. :D
Sinceramente preferisco guardare i video di Crysis e Bioshock...almeno li' vedo l'interfaccia di gioco...;)

LCol84
18-03-2007, 18:40
Sinceramente preferisco guardare i video di Crysis e Bioshock...almeno li' vedo l'interfaccia di gioco...;)

Eheh, questioni di punti di vista.
Io al solo pensiero che nel giro di 2-3 anni ci possano essere giochi con questo livello di dettaglio mi fa semplicemente accapponare la pelle.
Alla fine credo che queste tech demo mostrino bene o male quello che gli sviluppatori di software potranno fare con l'hardware (si spera almeno) nei prossimi 2 anni.
Certo che per far girare questa demo, per quanto possa essere ottimizzata, r600 deve avere sotto 2 OO tante :D
tutto imho ovviamente

PS nel video di crysis alcune texture sono poco realistiche. Ma magari saranno perfezionate all'uscita (lo spero proprio)
Ad esempio le texture dei legni e del tetto...

appleroof
18-03-2007, 18:44
Eheh, questioni di punti di vista.
Io al solo pensiero che nel giro di 2-3 anni ci possano essere giochi con questo livello di dettaglio mi fa semplicemente accapponare la pelle.
Alla fine credo che queste tech demo mostrino bene o male quello che gli sviluppatori di software potranno fare con l'hardware (si spera almeno) nei prossimi 2 anni.
Certo che per far girare questa demo, per quanto possa essere ottimizzata, r600 deve avere sotto 2 OO tante :D
tutto imho ovviamente

La CG può essere fatta girare su una geffo4, una volta finita, e rimanere uguale. Ma non sappiamo se quella è CG, e cmq le techdemo come giustamente detto 1000 volte lasciano il tempo che trovano, per loro natura non rispecchieranno mai il risultato con i giochi.

Poi scusa se mi permetto, ma se crysis ti lascia indifferente allora puoi davvero sospendere di giocare per 5 anni e riprendere allora...:asd:

halduemilauno
18-03-2007, 18:44
In una parola è CG...:O :D

in una parola è pubblicità.
;)

LCol84
18-03-2007, 18:48
Poi scusa se mi permetto, ma se crysis ti lascia indifferente allora puoi davvero sospendere di giocare per 5 anni e riprendere allora...:asd:

Ma va la! Mica mi lascia indifferente! Sarà sicuramente un giocone (spero)
dico solo che per alcuni versi è fantastico, per altre cose forse mi aspettavo qualcosina in più (dai filmati visti fin'ora eh...). Ma cmq chi vivrà vedrà, tutto può cambiare

eheh magari seguirò il tuo consiglio :sofico:

Simon82
18-03-2007, 20:34
Eheh, questioni di punti di vista.
Io al solo pensiero che nel giro di 2-3 anni ci possano essere giochi con questo livello di dettaglio mi fa semplicemente accapponare la pelle.
Alla fine credo che queste tech demo mostrino bene o male quello che gli sviluppatori di software potranno fare con l'hardware (si spera almeno) nei prossimi 2 anni.
Certo che per far girare questa demo, per quanto possa essere ottimizzata, r600 deve avere sotto 2 OO tante :D
tutto imho ovviamente

PS nel video di crysis alcune texture sono poco realistiche. Ma magari saranno perfezionate all'uscita (lo spero proprio)
Ad esempio le texture dei legni e del tetto...

Se guardo anche un qualsiasi Ruby sulle "vecchie" schede ATi mi rendo conto che grafica simile ancora non c'e' sul panorama attuale almeno per il realismo cinematografica che regala. E quello con GPU molto meno potenti se ci riferiamo alle prime tech demo.

DVD2005
18-03-2007, 21:44
Se guardo anche un qualsiasi Ruby sulle "vecchie" schede ATi mi rendo conto che grafica simile ancora non c'e' sul panorama attuale almeno per il realismo cinematografica che regala. E quello con GPU molto meno potenti se ci riferiamo alle prime tech demo.

stavo pensando la stessa cosa, anche Ruby piu' "datate" sono comunque superiori ai giochi odierni. Come detto sopra queste demo sono degli spot girati appositamente con una regia per farci rimanere cosi' :eek:

dantes76
18-03-2007, 21:46
AMD R600 Demo for CeBIT Expo

http://www.youtube.com/watch?v=EJ6aMxPh6k0

Postato? :D

TecnoWorld8
18-03-2007, 21:51
dantes: sì, è ciò di cui si parlava ora :)

dantes76
18-03-2007, 21:53
dantes: sì, è ciò di cui si parlava ora :)

ok , colpitemi con le pietre, non reagiro', prometto :asd:

TecnoWorld8
18-03-2007, 21:54
hihihi! figuratiiiii! anzi, grazie cmq x il contributo!!!

siamo tutti qui appollaiati ad attendere nuove info, hehe

Simon82
19-03-2007, 06:51
stavo pensando la stessa cosa, anche Ruby piu' "datate" sono comunque superiori ai giochi odierni. Come detto sopra queste demo sono degli spot girati appositamente con una regia per farci rimanere cosi' :eek:

Gia', poi nulla toglie che il carico geometrico e la complessita' sia comunque al top, ma se potessimo interagire con i personaggi e fermarci ogni tanto noteremmo tante cose che penalizzerebbero immensamente il realismo. ;)

IT: non vedo il video da youtube, ho problemi con il firewall aziendale.. :muro:

gianni1879
19-03-2007, 09:49
AMD R600 Demo for CeBIT Expo

http://www.youtube.com/watch?v=EJ6aMxPh6k0

Postato? :D

cmq bella la tutina rossa :asd:

fukka75
19-03-2007, 10:27
In una parola è CG...:O :D

in una parola è pubblicità.
;)

La CG può essere fatta girare su una geffo4, una volta finita, e rimanere uguale. Ma non sappiamo se quella è CG, e cmq le techdemo come giustamente detto 1000 volte lasciano il tempo che trovano, per loro natura non rispecchieranno mai il risultato con i giochi.

Poi scusa se mi permetto, ma se crysis ti lascia indifferente allora puoi davvero sospendere di giocare per 5 anni e riprendere allora...:asd:

Se guardo anche un qualsiasi Ruby sulle "vecchie" schede ATi mi rendo conto che grafica simile ancora non c'e' sul panorama attuale almeno per il realismo cinematografica che regala. E quello con GPU molto meno potenti se ci riferiamo alle prime tech demo.

stavo pensando la stessa cosa, anche Ruby piu' "datate" sono comunque superiori ai giochi odierni. Come detto sopra queste demo sono degli spot girati appositamente con una regia per farci rimanere cosi' :eek:

Meno male che c'è qualcuno che la pensa come me ...

dani.guitar83
19-03-2007, 12:43
secondo me l'r600 se uscirà a 65nm,consumerà sempre sui 200watt perchè pomperanno le frequenze

LCol84
19-03-2007, 12:45
secondo me l'r600 se uscirà a 65nm,consumerà sempre sui 200watt perchè pomperanno le frequenze

Anche secondo me, generalmente usano i processi produttivi inferiori per tirare su le frequenze...

Piuttosto che avere una scheda da 200watt con 1 ghz di core ne preferirei una con 800mhz ma con 150watt.

mah, vedremo cmq...

Simon82
19-03-2007, 13:21
Anche secondo me, generalmente usano i processi produttivi inferiori per tirare su le frequenze...

Piuttosto che avere una scheda da 200watt con 1 ghz di core ne preferirei una con 800mhz ma con 150watt.

mah, vedremo cmq...

Il COME dipendera' tutto dal QUANDO riusciranno a proporla e da quale sara' l'alternativa concorrente.

LCol84
19-03-2007, 13:23
Il COME dipendera' tutto dal QUANDO riusciranno a proporla e da quale sara' l'alternativa concorrente.

Scusa ma non ho capito

DVD2005
19-03-2007, 13:38
news di hwupgrade

In occasione di una conferenza stampa tenuta al Cebit di Hannover, AMD ha delineato alcune caratteristiche tecniche della propria futura architettura video top di gamma nota con il nome in codice di R600.

Una delle più interessanti tecnologie che verrà implementata in questa GPU, e di riflesso anche sulle soluzioni RV630 e RV610, è data dall'integrazione di un universal video decoding all'interno della GPU. Grazie a questa tecnologia sarà possibile delegare alla GPU l'elaborazione di tutti i calcoli legati alla generazione dei flussi video processati dal sistema.

Sino ad ora le GPU più recenti sono state utilizzate per svolgere alcune delle elaborazioni legate alla riproduzione di flussi video sia standard e high definition, con l'obiettivo di migliorare la qualità e liberare parte delle risorse del processore. La cpu, tuttavia, ha confinuato a rivestire un ruolo importante in quanto responsabile di parte dei calcoli legati alla riproduzione dei flussi video.

Grazie all'utilizzo di un universal video decoder, le nuove GPU della serie R600 di AMD potranno sgravare del tutto la CPU, permettendo quindi di riprodurre filmati high definition sino allo standard 1080p con bit rate anche oltre i 40 Mbit al secondo. Il fatto che l'UVD, universal video decoder, sia separato e indipendente dall'engine 3D della GPU, permetterà anche alle soluzioni più entry level basate su GPU RV630 di gestire flussi video HD con tali caratteristiche.

Le nuove GPU integreranno anche al proprio interno la logica necessaria per la gestione dei flussi audio: questo permetterà di utilizzare connessioni HDMI con trasmissione dei segnali audio e video verso il display senza dover collegare alla scheda video una scheda audio per la gestione della parte di dati legata all'audio.

Un approccio di questo tipo, inoltre, permetterà di gestire la sincronizzazione tra audio e video direttamente all'interno della GPU, evitando il ricorso sia a cavi esterni che a software esterno: la sincronizzazione avverrà grazie al software proprio della scheda video prima che il frame video venga inviato al display attraverso connessione HDMI.

wiltord
19-03-2007, 13:54
aggiunto in prima pagina ;)

belin
19-03-2007, 14:39
Link: ...chi offre di più??? (facciamo nessuno di noi!) (http://www.ebay.ca/) :stordita:

:eek:

:eek:

:D

runk
19-03-2007, 14:41
Link: ...chi offre di più??? (facciamo nessuno di noi!) (http://www.ebay.ca/) :stordita:

:eek:

:eek:

:D

:rolleyes: :doh:

ed è pure powerseller!

belin
19-03-2007, 14:41
http://bbs.souyo.com/uploadimage/igdbol_2007319_2776.jpg


...questo non so cosa sia ma è DX10 ed è bello! :D

wiltord
19-03-2007, 14:43
belin niente link ad ebay, edita ;)

runk
19-03-2007, 14:44
http://bbs.souyo.com/uploadimage/igdbol_2007319_2776.jpg


...questo non so cosa sia ma è DX10 ed è bello! :D

son troppo piccole :muro:

belin
19-03-2007, 14:49
belin niente link ad ebay, edita ;)

...fatto, l'ho messo solo perchè la vendita era già chiusa ed un pò lollosa!


:)

wiltord
19-03-2007, 14:50
...fatto, l'ho messo solo perchè la vendita era già chiusa ed un pò lollosa!

:)

no problem, solo che è vietato ;)

Marko91
19-03-2007, 14:58
http://bbs.souyo.com/uploadimage/igdbol_2007319_2776.jpg


...questo non so cosa sia ma è DX10 ed è bello! :D

Dovrebbe essere Just Cause.

http://www.digitimes.com.tw/n/article.asp?id=0000044185_A3P5N6091U9DLGF4EIXKH

Traduzione:

Quote:
Affects Vista PC to change planes tide brand-new cartography specification DirectX 10, draws a chart chip double male NVIDIA and AMD-ATI original predetermined in 2007 the second season promotes the correlation product, but because is connected plays is unable to follow promptly, the market universal anticipated DirectX 10 generations fear only then treat in 2007 next half or in 2008 can approach truly, however the game entrepreneur disclosed, AMD-ATI has in the near future planned hand in hand many cartography card factory, purchases 2 section DirectX 10 games jointly, makes a tie-in sale to promote higher order product R600 the detention to May in, encourages the DirectX 10 generations to accelerate to approach, so as to leads PC to change planes the tide, and strengthens the cartography card market sale strength.


NVIDIA takes the lead in November, 2006 to issue industry the jieshou funds support the DirectX 10 higher order cartography product, the core code number G80's Geforce 8800 families, the DirectX 10 generations enter the seed stage officially, because although has not had the DirectX 10 games to be taken to the threshing ground the support, is unable to display the excellent characteristic, but has actually raised the mighty waves in the cartography card entrepreneur. Promotes brand-new cartography core R600 as for the AMD-ATI original estimate in at the end of March, 2007 to plan, expected catches up with the match product to promote the time interval, because however considers the DirectX 10 benefits and GDDR4 memories is out of stock seriously, retards promotes R600 product to May in.


The game entrepreneur disclosed that, AMD-ATI in faces the partner to appeal promotes the product as soon as possible, and appraised the competitor rushes forward the DirectX 10 domains, but does not have the DirectX 10 games to match, the hero does not have the opportunity, then on a large scale plans and many cartography card entrepreneur purchases 2 section 9 to change the DirectX 10 game writings jointly by DirectX, including by the Techland manufacture, the Ubisoft release western cowboy fires at the game “the wilderness double flood dragon (Call of Juarez)”, the Eidos release “the justifiable defense (Just Cause)”, makes a tie-in sale in May to promote R600 cartography card, hardly fires the movement to urge the DirectX 10 generations softly to approach truly.



The cartography card entrepreneur pointed out that, at present AMD-ATI is being at backwardness stage, the continual three generation of cartography chip product in researches and develops and promotes the time interval to fall behind NVIDIA, lets the partner burning with impatience, in addition, as a result of the AMD-ATI higher order cartography card always all by EMS a factory Celestica generation of labor, pastes the sign sale by the cartography card entrepreneur, therefore, this AMD-ATI plans makes a tie-in sale 2 section DirectX 10 game software, has purchased the cost including in R600, will be unifies the cartography card partner union purchase to promote, impels the DirectX for 10 times to approach with joint forces.



It is noteworthy that, although NVIDIA is in the lead promotes the DirectX 10 products, but because of the non-game software coordination, is unable to display its characteristic, the market anticipated generally the third season distributes “Crysis” in 2007 after American commercial skill electricity (EA) and so on the DirectX 10 games to promote, changes planes the effect only then to be able to increase obviously warm, however offers a sacrifice to the DirectX 10 soft hard synchronizations in AMD-ATI after May to go on the market the plan, the attempt reverse declining tendency, the entire aspect greatly for will have a new look.

The cartography card entrepreneur will believe, because the consumer can true construct on Vista PC, experiences the DirectX 10 formidable cartography functions for the first time, further will stimulate the high consumption ability to swim plays the family to adopt changes planes or the promotion movement, and will lead changes planes the tide to approach ahead of time, this will be extremely important regarding Microsoft (Microsoft) new generation of work system Vista and the global PC industry.

Da Taiwan arriva la notizia che R600 potrebbe essere venduto in bundle con Crysis e che all'uscita del chip verranno rilasciate patch directx 10 per Call of Juarez e Just Cause. :)

runk
19-03-2007, 15:12
Dovrebbe essere Just Cause.

http://www.digitimes.com.tw/n/article.asp?id=0000044185_A3P5N6091U9DLGF4EIXKH

Traduzione:


Da Taiwan arriva la notizia che R600 potrebbe essere venduto in bundle con Crysis e che all'uscita del chip verranno rilasciate patch directx 10 per Call of Juarez e Just Cause. :)

se il prezzo è buono è un'ottima cosa! ;)

DVD2005
19-03-2007, 15:32
se il prezzo è buono è un'ottima cosa! ;)

vero :)

questo rafforzerebbe anche le ipotesi fatte (non ricordo da chi :fagiano: ) che il ritardo di crysis sia stato legato al ritardo di R600

fukka75
19-03-2007, 16:09
Se è vero che le sh hanno deciso di attendere l'uscita di R600 per presentare giochi e patches DX10, si può dire che nVidia ha perso gran parte del proprio ascendente sui produttori di vg: significa che vedremo molti meno loghi twimtbp sui titoli futuri (non che il logo significhi molto per altro)? Significa forse che le sh non hanno creduto nella bontà della tecnologia della casa californiana, e hanno invece preferito fidarsi dei proclami di ATI? Il discorso è sempre lo stesso: è una semplice coincidenza, o anche le sh hanno ritenuto che G80 sia uscita troppo in anticipo, e hanno atteso la presenza di una maggiore concorrenza (che evidentemente ritengono migliore del prodotto già presente) ? Voi che ne pensate?

Kharonte85
19-03-2007, 16:17
vero :)

questo rafforzerebbe anche le ipotesi fatte (non ricordo da chi :fagiano: ) che il ritardo di crysis sia stato legato al ritardo di R600
http://www.hwupgrade.it/forum/showpost.php?p=16332890&postcount=2043

anche secondo me non era improbabile...

Call of juarez in dx10?

Ho un gia' un gioco potenzialmente dx10! :eek:

Kharonte85
19-03-2007, 16:30
Se è vero che le sh hanno deciso di attendere l'uscita di R600 per presentare giochi e patches DX10, si può dire che nVidia ha perso gran parte del proprio ascendente sui produttori di vg: significa che vedremo molti meno loghi twimtbp sui titoli futuri (non che il logo significhi molto per altro)? Significa forse che le sh non hanno creduto nella bontà della tecnologia della casa californiana, e hanno invece preferito fidarsi dei proclami di ATI? Il discorso è sempre lo stesso: è una semplice coincidenza, o anche le sh hanno ritenuto che G80 sia uscita troppo in anticipo, e hanno atteso la presenza di una maggiore concorrenza (che evidentemente ritengono migliore del prodotto già presente) ? Voi che ne pensate?
Bella domanda...

Io credo cmq che invertendo le parti si sarebbe verificata la stessa situazione...

Se R-600 fosse uscita al posto di G80...le software house avrebbero aspettato G80, per una semplice questione di avere un mercato piu' ampio.

DVD2005
19-03-2007, 16:35
Bella domanda...

Io credo cmq che invertendo le parti si sarebbe verificata la stessa situazione...

Se R-600 fosse uscita al posto di G80...le software house avrebbero aspettato G80, per una semplice questione di avere un mercato piu' ampio.

ed il nuovo OS installato su di un certo numero di macchine

Kharonte85
19-03-2007, 16:38
ed il nuovo OS installato su di un certo numero di macchine
Certo...;)

Athlon 64 3000+
19-03-2007, 16:39
io naturalmente spero sempre che facciano anche il driver per XP oltre che per Vista.

Pat77
19-03-2007, 16:48
Lo dicevo da tempo che le prime cose dx10 si sarebbero viste in concomitanza con l'uscita delle schede r600 e derivati.

Azzardo: uscirà 3dmark 2007, oltre alle già annunciate patch dx10 (supreme commander c'è da aggiungere), qualcosa tipo Crysis ma meno publicizzato, che so, Haze.

http://hazegame.uk.ubi.com/images/03.jpg

T3d
19-03-2007, 17:12
si ok tutto bello... ma


MA QUANDO DIAMINE ESCONO QUESTE SCHEDE!!!!!!!!! :cry:

Athlon 64 3000+
19-03-2007, 17:21
si ok tutto bello... ma


MA QUANDO DIAMINE ESCONO QUESTE SCHEDE!!!!!!!!! :cry:

Spero che escano al più presto perchè mi sono proprio rotto di aspettare.

fukka75
19-03-2007, 17:36
io naturalmente spero sempre che facciano anche il driver per XP oltre che per Vista.

Su questo non penso ci siano dubbi: rilasciare driver solo per Vista sarebbe un suicidio

galaxygalaxy
19-03-2007, 18:04
Permettete alcune domande da profano? :)

mi sono appena iscritto e ho letto saltando un pò quà e un pò là nel thread, ma (visto che dovrò cambiare la mia VGA in firma con l'R600), volevo alcune delucidazioni.

Mi sembra di aver capito che a fine marzo inizio aprile usciranno r610 e r630? Ho capito bene?

e poi un dubbio. Non ben capito alcune cose. R610 e r630 saranno inferiori rispetto a r600??? scusate ma di solito più si va avanti con i numeri e più potenti diventano i chip, quì è il contrario o ho solo una enorme confusione???

Scusate se le domande sono sciocche :doh:

P.S. il computer in firma pensate che potrebbe sostenere l'r600? Intendo in particolare lo slot pci-express è 16x e l'ali è da 550 watt. Il procio non mi preoccupa visto che ho letto che nella nuova generazione di VGA l'aiuto del procio è sempre più meno richiesto.

LCol84
19-03-2007, 18:08
Permettete alcune domande da profano? :)

mi sono appena iscritto e ho letto saltando un pò quà e un pò là nel thread, ma (visto che dovrò cambiare la mia VGA in firma con l'R600), volevo alcune delucidazioni.

Mi sembra di aver capito che a fine marzo inizio aprile usciranno r610 e r630? Ho capito bene?

e poi un dubbio. Non ben capito alcune cose. R610 e r630 saranno inferiori rispetto a r600??? scusate ma di solito più si va avanti con i numeri e più potenti diventano i chip, quì è il contrario o ho solo una enorme confusione???

Scusate se le domande sono sciocche :doh:

P.S. il computer in firma pensate che potrebbe sostenere l'r600? Intendo in particolare lo slot pci-express è 16x e l'ali è da 550 watt. Il procio non mi preoccupa visto che ho letto che nella nuova generazione di VGA l'aiuto del procio è sempre più meno richiesto.

rv610 e r630 sono dei derivati di r600 quindi meno potenti ;)

I numeri non sempre indicano un evoluzione delle performance...

Il tuo pc credo che dovrebbe reggerla, ma sinceramente un 3700 mi sembra un pò vecchiotto per r600 dato che anche del dual core si trovano ormai a 100€
Sec me bisognerebbe abbinarci un dual core ad una vga mostruosa come r600, non dico di prendere un quad, ma almeno un dual core su 939 credo sia intelligente come scelta.
L'alimentatore da 550 watt dice poco, bisogno vedere gli amperaggi che ha... :D

halduemilauno
19-03-2007, 18:09
Permettete alcune domande da profano? :)

mi sono appena iscritto e ho letto saltando un pò quà e un pò là nel thread, ma (visto che dovrò cambiare la mia VGA in firma con l'R600), volevo alcune delucidazioni.

Mi sembra di aver capito che a fine marzo inizio aprile usciranno r610 e r630? Ho capito bene?

e poi un dubbio. Non ben capito alcune cose. R610 e r630 saranno inferiori rispetto a r600??? scusate ma di solito più si va avanti con i numeri e più potenti diventano i chip, quì è il contrario o ho solo una enorme confusione???

Scusate se le domande sono sciocche :doh:

P.S. il computer in firma pensate che potrebbe sostenere l'r600? Intendo in particolare lo slot pci-express è 16x e l'ali è da 550 watt. Il procio non mi preoccupa visto che ho letto che nella nuova generazione di VGA l'aiuto del procio è sempre più meno richiesto.

si.
no.
si.
si.
ps si. ma il procio no.
;)

Grey 7
19-03-2007, 18:17
Lo dicevo da tempo che le prime cose dx10 si sarebbero viste in concomitanza con l'uscita delle schede r600 e derivati.

Azzardo: uscirà 3dmark 2007, oltre alle già annunciate patch dx10 (supreme commander c'è da aggiungere), qualcosa tipo Crysis ma meno publicizzato, che so, Haze.
cut

sbavo

Deschutes
19-03-2007, 18:23
rv610 e r630 sono dei derivati di r600 quindi meno potenti ;)

I numeri non sempre indicano un evoluzione delle performance...

Il tuo pc credo che dovrebbe reggerla, ma sinceramente un 3700 mi sembra un pò vecchiotto per r600 dato che anche del dual core si trovano ormai a 100€
Sec me bisognerebbe abbinarci un dual core ad una vga mostruosa come r600, non dico di prendere un quad, ma almeno un dual core su 939 credo sia intelligente come scelta.
L'alimentatore da 550 watt dice poco, bisogno vedere gli amperaggi che ha... :D

Beh il 3700 + san diego è cpu limited con le X2900 ma dovrebbe andare ok con la fascia media, X2600XT compresa, comuque passare ad un dual core è buona cosa, usati se ne trovano sul mercatino.
Riguardo i quad core soldi sprecati ... già son pochi i giochi che sfruttano i dual core, figuriamoci i quad core :D

Ciao

galaxygalaxy
19-03-2007, 18:53
ok grazie a tutti delle risposte. adesso è tutto più chiaro ;)

non vorrei essere OT e se lo sono scusatemi, ma permettetemi solo questa domanda.
Come fate a dire che il 3700 potrebbe essere cpu limited? Ad esempio quale sarebbe il minimo indinspensabile secondo Voi?

Io vorrei comunque ribadire che le nuove GPU (sempre letto quì e altrove) non dipenderanno più dalle CPU tanto quanto ne dipendono adesso le attuali GPU. Se non è così sapreste spiegarmi tecnicamente il motivo. Scusate se sono così confuso :confused:

halduemilauno
19-03-2007, 18:57
ok grazie a tutti delle risposte. adesso è tutto più chiaro ;)

non vorrei essere OT e se lo sono scusatemi, ma permettetemi solo questa domanda.
Come fate a dire che il 3700 potrebbe essere cpu limited? Ad esempio quale sarebbe il minimo indinspensabile secondo Voi?

Io vorrei comunque ribadire che le nuove GPU (sempre letto quì e altrove) non dipenderanno più dalle CPU tanto quanto ne dipendono adesso le attuali GPU. Se non è così sapreste spiegarmi tecnicamente il motivo. Scusate se sono così confuso :confused:

per una gtx un amd 4800.
;)

appleroof
19-03-2007, 19:45
ok grazie a tutti delle risposte. adesso è tutto più chiaro ;)

non vorrei essere OT e se lo sono scusatemi, ma permettetemi solo questa domanda.
Come fate a dire che il 3700 potrebbe essere cpu limited? Ad esempio quale sarebbe il minimo indinspensabile secondo Voi?

Io vorrei comunque ribadire che le nuove GPU (sempre letto quì e altrove) non dipenderanno più dalle CPU tanto quanto ne dipendono adesso le attuali GPU. Se non è così sapreste spiegarmi tecnicamente il motivo. Scusate se sono così confuso :confused:

E' corretto, con le dx10 ci si dovrà preoccupare meno del procio (in ambito gaming, cioè poi se con il pc si fà anche dell'altro è un altro paio di maniche), considerando anche lo sviluppo (si spera) di ppu dedicate alla fisica o eventuali sviluppi delle tecnologie sli/crossfire per quel compito, ad esempio.

Cmq nell'immediato se si vuole giocare bene un gioco dx10 sulla carta molto meglio avere una ottima vga dx10 che l'ultimo quad core, nell'immediato, e stare alla finestra osservando l'evolversi delle cose ;)

Athlon 64 3000+
19-03-2007, 21:02
ok grazie a tutti delle risposte. adesso è tutto più chiaro ;)

non vorrei essere OT e se lo sono scusatemi, ma permettetemi solo questa domanda.
Come fate a dire che il 3700 potrebbe essere cpu limited? Ad esempio quale sarebbe il minimo indinspensabile secondo Voi?

Io vorrei comunque ribadire che le nuove GPU (sempre letto quì e altrove) non dipenderanno più dalle CPU tanto quanto ne dipendono adesso le attuali GPU. Se non è così sapreste spiegarmi tecnicamente il motivo. Scusate se sono così confuso :confused:

L'alimentatore se è un generico 550W per l'R600 lo dovrai cambiare per quanto riguarda la cpu è io non ci ho mai creduto al cpu-limited quindi potresti anche non cambiarlo dato che io avrei voluto abbianarlo al mio vecchio Athlon 64 3000+ socket 754 ma alla fine lo ho cambiato perchè ho avuto la possibilità di prendere un x2 4800+ socket 939 usato ad un prezzo stracciato e ne ho approfittato.
Se vuoi passare al dual core non è vero che ci vuole almeno un x2 4800+ ma basta anche se un x2 3800+

TecnoWorld8
19-03-2007, 21:28
ma quindi secondo voi un 550W non ce la fa con una R600? Il resto del PC sarebbe quello in firma...

Dexther
19-03-2007, 21:54
scusate raga, non frequento molto il thread, volevo sapere se sto link è stato "sconfessato" o meno :stordita:

http://level505.com/2006/12/30/the-full-ati-r600-test/4/

belin
19-03-2007, 21:59
Mi sembra di aver capito che a fine marzo inizio aprile usciranno r610 e r630? Ho capito bene?
...hai capito benissimo. :)

R610 e r630 saranno inferiori rispetto a r600??? scusate ma di solito più si va avanti con i numeri e più potenti diventano i chip, quì è il contrario o ho solo una enorme confusione???

RV610 e RV630 sono derivati da R600, la gpu più potente. ATi ha sempre denominato con la V le gpu derivate da quelle più potenti.

P.S. il computer in firma pensate che potrebbe sostenere l'r600?
...quoto tutti gli altri. Per l'Ali bisogna vedere gli amperaggi, ma non dovresti aver problemi. Per la cpu è consigliato un X2.

...ciao! :)

runk
19-03-2007, 22:03
scusate raga, non frequento molto il thread, volevo sapere se sto link è stato "sconfessato" o meno :stordita:

http://level505.com/2006/12/30/the-full-ati-r600-test/4/

oldissimo! :O



:asd:

Dexther
19-03-2007, 22:07
oldissimo! :O



:asd:

ok :fagiano:

ma è confermato o è un fake?

Alexkidd85
19-03-2007, 22:10
Dovrebbe essere Just Cause.

http://www.digitimes.com.tw/n/article.asp?id=0000044185_A3P5N6091U9DLGF4EIXKH

Traduzione:


Da Taiwan arriva la notizia che R600 potrebbe essere venduto in bundle con Crysis e che all'uscita del chip verranno rilasciate patch directx 10 per Call of Juarez e Just Cause. :)

Che dire...una cosa del genere...sarebbe da fare una statua all'amd e alla...no vabé alla E.A. no :p

runk
19-03-2007, 22:10
ok :fagiano:

ma è confermato o è un fake?

:boh:

ps: cmq ti prendevo in giro,non te la prendere! ;)

Che dire...una cosa del genere...sarebbe da fare una statua all'amd e alla...no vabé alla E.A. no

:asd:

gianni1879
19-03-2007, 22:10
ok :fagiano:

ma è confermato o è un fake?

ancora co sto link :asd:

fake fake fake

Kharonte85
19-03-2007, 22:11
Fake resort...:doh:

Dexther
19-03-2007, 22:13
:boh:

ps: cmq ti prendevo in giro,non te la prendere! ;)



Macchè figurati :p

ancora co sto link :asd:

fake fake fake

ah ok :)

Fake resort...:doh:

Scusate...non frequento molto il thread :sob:


:Prrr:

belin
19-03-2007, 22:29
Da Taiwan arriva la notizia che R600 potrebbe essere venduto in bundle con Crysis e che all'uscita del chip verranno rilasciate patch directx 10 per Call of Juarez e Just Cause. :)
questo rafforzerebbe anche le ipotesi fatte (non ricordo da chi :fagiano: ) che il ritardo di crysis sia stato legato al ritardo di R600
Se è vero che le sh hanno deciso di attendere l'uscita di R600 per presentare giochi e patches DX10, si può dire che nVidia ha perso gran parte del proprio ascendente sui produttori di vg: significa che vedremo molti meno loghi twimtbp sui titoli futuri (non che il logo significhi molto per altro)? Significa forse che le sh non hanno creduto nella bontà della tecnologia della casa californiana, e hanno invece preferito fidarsi dei proclami di ATI? Il discorso è sempre lo stesso: è una semplice coincidenza, o anche le sh hanno ritenuto che G80 sia uscita troppo in anticipo, e hanno atteso la presenza di una maggiore concorrenza (che evidentemente ritengono migliore del prodotto già presente) ? Voi che ne pensate?
...io credo che sia qualcosa di più di un semplice rumors. E che il reparto marketing di AMD-ATi sia nettamente più "potente" di quello della sola ATi Tech.
Fateci caso, tutti adesso stanno aspettando R600, tutti vogliono vedere R600, tutti hanno sete di notizie tecniche su R600. Una situazione così capita poche volte. Con questa strategia (mooolto silenziosa) AMD sta creado un hype non da poco. Se poi sapranno anche "vendere il prodotto R600" tramite accordi con software house e simili...beh...avranno vinto la loro scommessa e recuperato tutto il tempo apparentemente perso.
L'unica certezza è che una sola software house ha molti elementi concreti in più (alcuni lunghi anche 12,5 pollici...:D ) di tutti i siti di rumors...quindi...;)

belin
19-03-2007, 23:08
...qui si vede meglio: ATi Whiteout - new Ruby technology demo (http://www.hexus.tv/show.php?show=66)



:)

Nos89
19-03-2007, 23:15
ok grazie a tutti delle risposte. adesso è tutto più chiaro ;)

non vorrei essere OT e se lo sono scusatemi, ma permettetemi solo questa domanda.
Come fate a dire che il 3700 potrebbe essere cpu limited? Ad esempio quale sarebbe il minimo indinspensabile secondo Voi?

Io vorrei comunque ribadire che le nuove GPU (sempre letto quì e altrove) non dipenderanno più dalle CPU tanto quanto ne dipendono adesso le attuali GPU. Se non è così sapreste spiegarmi tecnicamente il motivo. Scusate se sono così confuso :confused:

con il 3700+ sei cpu-limited ce poco da fare...lo devi cambiare con qualcosa di meglio

TecnoWorld8
19-03-2007, 23:50
credo che con una belva del genere si sarà CPU limited anche con un processore come il mio in sign...per questo credo che sia una scheda video che potrà durare ad alto livello anche un paio d'anni, soprattutto se tra un anno circa si aggiorna CPU con un quad core a 4Ghz a 45nm :)

johnson
20-03-2007, 00:32
con il 3700+ sei cpu-limited ce poco da fare...lo devi cambiare con qualcosa di meglio


Ma io vorrei verificare quanto uno sarebbe cpu limited...

è da un po che mi piacerebbe vedere una bella comparativa di cpu (come le ultime proposte da hwu) con qualche cpu single core.

dipende molto dalla risoluzione a cui uno gioca. In teoria, più alta è, meno influisce la cpu. Con una scheda video molto potente, si presume si giochi almeno a 1600x1200 (o relativa ris wide).

Che mi dite :D ?

MonsterMash
20-03-2007, 01:25
Io dico che non si deve esagerare con questa storia dell'essere cpu limited. Voglio dire, anche se si perde qualche frame a causa della cpu che non riesce a stare dietro alla vga, questo significherà probabilmente andare a 80 fps invece che a 85, nella maggior parte dei casi.

Nel mio caso ad esempio non mi pongo neanche il problema. Per almeno altri 8 mesi la cpu che ho (vedi signa) mi andrà perfettamente bene. Dopodichè si vedrà se passare al k10 :)

Alexkidd85
20-03-2007, 02:08
Devo dire che il video di ruby si vede molto meglio nel secondo link...però scusate ma una nota di demerito alla ati la devo fare: ma che caxxo di voce hanno messo a ruby!? Sembra un travestito :D
Scusate l'ot ...tanto per "sorridere a denti stretti" :p

A.L.M.
20-03-2007, 08:24
Devo dire che il video di ruby si vede molto meglio nel secondo link...però scusate ma una nota di demerito alla ati la devo fare: ma che caxxo di voce hanno messo a ruby!? Sembra un travestito :D

Ho pensato la stessa cosa... :sofico:

Pat77
20-03-2007, 08:42
Ma io vorrei verificare quanto uno sarebbe cpu limited...

è da un po che mi piacerebbe vedere una bella comparativa di cpu (come le ultime proposte da hwu) con qualche cpu single core.

dipende molto dalla risoluzione a cui uno gioca. In teoria, più alta è, meno influisce la cpu. Con una scheda video molto potente, si presume si giochi almeno a 1600x1200 (o relativa ris wide).

Che mi dite :D ?

Dipende dalla gpu appunto, è per questo che si dice cpu limited, se a 1600 una gpu ti fa fare ancora 60 fps e la cpu ti limita a 30 non stai sfruttando quello che hai acquistato, tanto più che abbassando la risoluzione si recupera poco, rendendo ancora di più la gpu inutile.
In Oblivion e in Vegas il passaggio ai dual core si sente, anche in Neverwinter Nights 2.
R600 verrà sfruttato dai k10 imho, tanto più che dovrebbero uscire quasi in contemporanea.

TecnoWorld8
20-03-2007, 10:42
confermo le impressioni sul video di ruby; spettacolare la tuta, la neve particellare, i movimenti e le texture del viso. non mi piacciono molto i capelli, invece...sanno di plasticoso...

Athlon 64 3000+
20-03-2007, 12:27
http://www.vr-zone.com/index.php?i=4831

The R600 card has adapted the Theater 200 video decoder chip from the previous All-in-Wonder multimedia family since AIW 9600XT to provide all the audio and video functionalities. Theater 200 can capture signals from composite, S-Video and component video inputs and the dual 12-bit ADCs will maintain the quality of the captured videos. It also features adaptive 3-line 2D comb filter to improve composite input quality. It would be nice if ATi is to use the newer and more powerful video decoder called Theater 550 which features hardware accelerated MPEG2 encoding, 3D comb and 5-line 2D comb filter.

Free Gordon
20-03-2007, 12:48
Che squallore....

E della mia x1800xt pagato 280E a maggio 2006 che me ne faccio? A chi la vendo e soprattutto a quanto? :muro: :muro:


E perchè dovresti venderla? :mbe:

Se vuoi fare un upgrade, devi mettere in conto di perdere dei soldi, se non li vuoi perdere, non lo fare! :asd:

Athlon 64 3000+
20-03-2007, 15:14
http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1

ATI's next generation part codenamed R700 is scheduled for first quarter of 2008. ATI failed with every plan to make the R600 on market and still has to launch this part at some point in May.


We don’t know many details about R700 only that it will support DirectX 10.1 and Shader model 4. We know that the work in currently on the schedule and that this chip has to fight G100 chip from Nvidia.


We hope it wont be that late as R600 was, for DAAMIT sake.

Simon82
20-03-2007, 15:18
http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1

ATI's next generation part codenamed R700 is scheduled for first quarter of 2008. ATI failed with every plan to make the R600 on market and still has to launch this part at some point in May.


We don’t know many details about R700 only that it will support DirectX 10.1 and Shader model 4. We know that the work in currently on the schedule and that this chip has to fight G100 chip from Nvidia.


We hope it wont be that late as R600 was, for DAAMIT sake.

G100 from Matrox? :D

Non credo che la futura GPU Nvidia verra' chiamata cosi' e non credo nemmeno che la nomenclatura ci potrebbe arrivare gia' nel 2008.

Comunque si parla di aria fritta sulla base di nulla in quell'articolo.

Nos89
20-03-2007, 15:24
Ma io vorrei verificare quanto uno sarebbe cpu limited...

è da un po che mi piacerebbe vedere una bella comparativa di cpu (come le ultime proposte da hwu) con qualche cpu single core.

dipende molto dalla risoluzione a cui uno gioca. In teoria, più alta è, meno influisce la cpu. Con una scheda video molto potente, si presume si giochi almeno a 1600x1200 (o relativa ris wide).

Che mi dite :D ?

molto fidati!io ho un Pentium 4 3.80Ghz e una 8800Gts che è molto meno potente di R600 e sono cpu-limited e nn di poco con tutti i nuovi giochi.con un Core2 nn credo proprio avrai problemi,fra poco lo prendo pure io;)

Marko91
20-03-2007, 15:28
http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1

ATI's next generation part codenamed R700 is scheduled for first quarter of 2008. ATI failed with every plan to make the R600 on market and still has to launch this part at some point in May.


We don’t know many details about R700 only that it will support DirectX 10.1 and Shader model 4. We know that the work in currently on the schedule and that this chip has to fight G100 chip from Nvidia.


We hope it wont be that late as R600 was, for DAAMIT sake.

Qualche pippa mentale? :D
Io dico produzione a 45 nm, frequenze 1,2+ Ghz e il doppio degli shader di R600. Ram sempre 1 Gb...

:stordita:

LCol84
20-03-2007, 15:36
Qualche pippa mentale? :D
Io dico produzione a 45 nm, frequenze 1,2+ Ghz e il doppio degli shader di R600. Ram sempre 1 Gb...

:stordita:

Io dico invece che avrà poco da spartire con r600, dato che sarà una multigpu, tanti piccoli core su unico pcb. :sbav:

Deviad
20-03-2007, 16:03
Io dico invece che avrà poco da spartire con r600, dato che sarà una multigpu, tanti piccoli core su unico pcb. :sbav:

Quello che c'è da notare è che r600 non è compatibile con 10.1 (da quello che si può evincere) e che la r700 non supporta gli SM5.

Athlon 64 3000+
20-03-2007, 16:18
http://www.vr-zone.com/index.php?i=4830

T3d
20-03-2007, 16:22
http://www.vr-zone.com/index.php?i=4830

certo che un 2% in più di prestazioni sono veramente pochini... mah :rolleyes:

Nos89
20-03-2007, 16:30
certo che un 2% in più di prestazioni sono veramente pochini... mah :rolleyes:

considerando che è uscita 7 mesi dopo,e consuma di + puo anche rimanere la

Athlon 64 3000+
20-03-2007, 16:33
se fosse vero dovrebbe venire a costare massimo 550 euro perchè è il prezzo che si trova la 8800GTX e non avrebbe senso metterla a 650 euro quando con 100 euro e oltre trovi una scheda concorrente che andrebbe il 2% in meno.
Comunque dice che le X2900XTX in commericio saranno a 65 nm e consumeranno un 30% in meno della versione prototipo a 80 nm.

The_SaN
20-03-2007, 16:34
certo che un 2% in più di prestazioni sono veramente pochini... mah :rolleyes:

Sono davvero pochi.....
Peró lasciamo tempo al tempo, i driver nVidia sono ormai piú maturi (per xp:Prrr: ), mentre per r600 c' é tempo per spremere il potenziale appieno ;)

VitOne
20-03-2007, 16:37
certo che un 2% in più di prestazioni sono veramente pochini... mah :rolleyes:

Spero vivamente che non sia così... Perché sarebbe veramente troppo poco. IMHO la loro scheda deve essere almeno il 25% pù veloce di 8800GTX; altrimenti nVidia uscirà con una 8800Ultra o una 8900 e si riprenderà al volo il trono. I ragazzi di VR sono sempre stati molto affidabili. Vediamo un po' come evolvono le cose.

Athlon 64 3000+
20-03-2007, 16:37
in quei presunti benchmark non è specificato il sistema operativo usato.

Nos89
20-03-2007, 16:39
Spero vivamente che non sia così... Perché sarebbe veramente troppo poco. IMHO la loro scheda deve essere almeno il 25% pù veloce di 8800GTX; altrimenti nVidia uscirà con una 8800Ultra o una 8900 e si riprenderà al volo il trono. I ragazzi di VR sono sempre stati molto affidabili. Vediamo un po' come evolvono le cose.

non andra mai un 25% + della 8800GTX neanche se si sparano:p

bluefrog
20-03-2007, 16:40
Mah, e così dopo un anno sarà già tecnologicamente superata. Speravo fosse già DX10.1. Tra l'altro si rumoreggia che nel codice di Crysis ci siano features nascoste da abilitare nel momento in cui l'hardware sarà pronto per chissà quale altra magnificenza grafica (DX10.1?). Per non parlare di Alan Wake. Staremo a vedere.

Athlon 64 3000+
20-03-2007, 16:44
non andra mai un 25% + della 8800GTX neanche se si sparano:p

se fossero veri quei benchmark voglio proprio vedere se avranno il coraggio quelli di AMD di tenere il prezzo per la X2900XTX molto più alto della 8800GTX.

Nos89
20-03-2007, 16:46
se fossero veri quei benchmark voglio proprio vedere se avranno il coraggio quelli di AMD di tenere il prezzo per la X2900XTX molto più alto della 8800GTX.

se cosi sarà nessuno comprera R600,quindi se le prestazioni sono simili devono anche adeguare il prezzo

bluefrog
20-03-2007, 16:48
-edit-

Pat77
20-03-2007, 17:04
http://www.vr-zone.com/index.php?i=4830

Si riferiranno alla xt, che pare un pochino più veloce della gtx, almeno dai dati che sono stati postati precedentemente.
Di rv630 si sa nulla?

Kharonte85
20-03-2007, 17:07
Si riferiranno alla xt, che pare un pochino più veloce della gtx, almeno dai dati che sono stati postati precedentemente.

Pero' Lì si parla espressamente di R600XTX...cmq se confermati sarebbero deludenti.

Bisogna considerare pero' che la versione a 65nm probabilmente avra' un clock piu' alto...

Nos89
20-03-2007, 17:08
Si riferiranno alla xt, che pare un pochino più veloce della gtx, almeno dai dati che sono stati postati precedentemente.
Di rv630 si sa nulla?

mi pare chiaro che si riferivano alla XTX c'è pure scritto;)

Grey 7
20-03-2007, 17:23
Spero vivamente che non sia così... Perché sarebbe veramente troppo poco. IMHO la loro scheda deve essere almeno il 25% pù veloce di 8800GTX; altrimenti nVidia uscirà con una 8800Ultra o una 8900 e si riprenderà al volo il trono. I ragazzi di VR sono sempre stati molto affidabili. Vediamo un po' come evolvono le cose.
come minimo aggiungerei,...certo che se quella cosa fosse vera sarebbe una bella ciofeca di scheda :rolleyes:

Skullcrusher
20-03-2007, 17:28
Come primi dati, se veritieri, sarebbero deludenti, ma c'è ancora tempo. Quelli di vr-zone non credo si siano inventati il punteggio, quindi R600 in definitiva sarebbe di poco superiore a G80. In ogni caso, non esprimo giudizi su R600 prima di aver letto la recensione di Hwupgrade.

Dexther
20-03-2007, 17:30
Come primi dati, se veritieri, sarebbero deludenti, ma c'è ancora tempo. Quelli di vr-zone non credo si siano inventati i punteggio, quindi R600 in definitiva sarebbe di poco superiore a G80. In ogni caso, non esprimo giudizi su R600 prima di aver letto la recensione di Hwupgrade.

in pieno accordo. finchè non vedo una rece completa non credo sia il caso di sbilanciarsi :p....

DVD2005
20-03-2007, 17:32
Come primi dati, se veritieri, sarebbero deludenti, ma c'è ancora tempo. Quelli di vr-zone non credo si siano inventati i punteggio, quindi R600 in definitiva sarebbe di poco superiore a G80. In ogni caso, non esprimo giudizi su R600 prima di aver letto la recensione di Hwupgrade.

quoto

e spero non siano veri

Athlon 64 3000+
20-03-2007, 17:36
sinceramente se va anche un solo 2% in più della 8800GTX non mi interessa perchè ora come ora la top di gamma nvidia doppia la mia X1900XT ed è veramente un missile.
Io ho già avuto 7 schede Nvidia e di prenderla un'altra non se ne parla e quindi la mia prossima scheda che sostituira la X1900XT probabilmente questa estate sarà una X2900XT o una X2900XTX.
Voi non immaginate che se la X2900XTX fosse veloce quanto la 8800GTX avrebbe un riflesso positivo sul prezzo e che quindi non avrebbe senso farla ad un prezzo superiore al top di gamma Nvidia perchè se no non venderebbe un'accidente.
Se vi ricordate la 7900GTX usci 1 mese e mezzo dopo la X1900XTX che all'uscita costava 650 euro e la 7900GTX fu proposta a 550 euro se non mi ricordo e capito che i prezzi di G71 e R580 nel giro di 3-4 ebbero un crollo notevole.

appleroof
20-03-2007, 17:49
e perchè anche andasse un 25/30% in più, a fronte di una spesa superiore di 100/150 euro, ne varrebbe la pena? Secondo me no...

cmq al solito (da 4-5 mesi :asd: ) aspettiamo...:rolleyes:

DVD2005
20-03-2007, 17:52
e perchè anche andasse un 25/30% in più, a fronte di una spesa superiore di 100/150 euro, ne varrebbe la pena? Secondo me no...

cmq al solito (da 4-5 mesi :asd: ) aspettiamo...:rolleyes:

se costasse come G80 all'uscita ed andasse un 25/30% in più penso che ne varrebbe la pena, o almeno tanto quanto ne era valso per G80 ma con maggiori prestazioni.

bluefrog
20-03-2007, 17:54
Io non posso credere comunque che sia solo un 2% più veloce. Cioè bus 512 vs 384, 1gb vs 768mb (più che altro per la velocità delle mem)... core che a momenti prende fuoco... se sarà effettivamente così vuol dire che l'architettura nv è qualcosa di fenomenale! Non ci resta che...indovinate? :D

TecnoWorld8
20-03-2007, 17:56
se esce a maggio (e credo non uscirà prima, ormai, soprattutto in quantità decenti) e andrà davvero come una GTX o pochissimo di più, questa volta nvidia se la riderà :( infatti ha già praticamente pronta la ultra, che immagino andrà almeno un 5-10% in più della stessa GTX...

dunque io direi che, per essere competitiva in questa fase, R600 deve:

1) essere a 65nm
2) consumare al max come la GTX
3) andare almeno 10-15% più veloce
4) costare al massimo 600 euro

soprattutto considerando che entro un anno ci sarà un nuovo step delle dx...

halduemilauno
20-03-2007, 18:00
e perchè anche andasse un 25/30% in più, a fronte di una spesa superiore di 100/150 euro, ne varrebbe la pena? Secondo me no...

cmq al solito (da 4-5 mesi :asd: ) aspettiamo...:rolleyes:

hanno usato un 6800.
;)

T3d
20-03-2007, 18:01
e perchè anche andasse un 25/30% in più, a fronte di una spesa superiore di 100/150 euro, ne varrebbe la pena? Secondo me no...

cmq al solito (da 4-5 mesi :asd: ) aspettiamo...:rolleyes:

per chi vuole il meglio sicuramente.
target al quale queste schede fanno riferimento.

dai su non scadiamo nei soliti ragionamenti. c'è un'ampia fetta di mercato (circa il 4% del fatturato) che compra il top del top anche se costa 200€ in più

appleroof
20-03-2007, 18:12
Non lo so, io ho preso G80 a prezzo di lancio perchè andava il doppio della x1950xtx, il top dx9 single gpu, e molto meglio della 7950gx2, addirittura dual gpu e in più era dx10.

Uno che viene da qualsiasi altra scheda dx9, se non è fan dell'una o dell'altra, prende verosimilmente quella che costa meno(sensibilmente a mio parere, se parliamo di 100/150 euro) e che per contro non va molto meno.

Inoltre come giustamente detto, i test sono fatti con un 6800, aspetterò anche quelli fatti con processori e configurazioni più umane.

Il tutto sempre chiaramente imho e aspettando conferme....;)

T3d
20-03-2007, 18:16
non prende quella che li costa meno...
prende quella che li garantisce una longevità maggiore. in altre parole la scheda più veloce sul mercato... sempre se si tratta di un consumatore "enthusiast"

TecnoWorld8
20-03-2007, 18:17
un 6800 ormai non è più nulla di trascendentale, dato che quasi tutti i c2d raggiungono i 3Ghz (che è + della frequenza di un 6800, appunto)...

Dexther
20-03-2007, 18:18
edit :p

Kharonte85
20-03-2007, 18:21
se costasse come G80 all'uscita
Mi sembra irrealistico come scenario, soprattutto considerando il gb di memorie ddr4 e il fatto che g80 è ha gia' abbassato i prezzi...
e perchè anche andasse un 25/30% in più, a fronte di una spesa superiore di 100/150 euro, ne varrebbe la pena? Secondo me no...

No, ma c'è sempre chi vuole il TOP...

TecnoWorld8
20-03-2007, 18:23
il fatto che AMD/ATi sia così reticente a divulgare i risultati del R600 può voler dire solo due cose: o veramente è deludente, o la versione che uscirà è molto meglio di quella attuale e vogliono aspettare di avere degli yield decenti per parlare

bluefrog
20-03-2007, 18:24
Da come si evince chiaramente dalle foto comunque il core non è messo per obliquo come si credeva finora. :)

edit
anzi no, potrebbe sempre essere messa a "rombo" la parte organica esterna è vero. :p

DVD2005
20-03-2007, 18:26
Mi sembra irrealistico come scenario, soprattutto considerando il gb di memorie ddr4 e il fatto che g80 è ha gia' abbassato i prezzi...


pensi passerà di molto i 650.00 ?

appleroof
20-03-2007, 18:28
No, ma c'è sempre chi vuole il TOP...

aspettiamo, il 30%+ è quello che mi aspetto, ma io non ho mai visto un R600 all'opera...:)

pensi passerà di molto i 650.00 ?

secondo me no, il maggior prezzo delle gddr4 potrebbe essere compensato dai minori costi di produzione a 65nm...io credo si piazzerà sui 650 al lancio, imho

Kharonte85
20-03-2007, 18:32
pensi passerà di molto i 650.00 ?
Io penso solo che non sara' sotto i 650...ovviamente spero di sbagliarmi, ma viste le caratteristiche e il ritardo accumulato potrebbe essere uno scenario probabile...:mc:

TecnoWorld8
20-03-2007, 18:33
650 mi pare davvero troppo, anche nel caso andasse 15% + veloce di una gtx, penso nn dovrebbe superare i 600 x essere competitiva

Alexkidd85
20-03-2007, 18:49
Io non posso credere comunque che sia solo un 2% più veloce. Cioè bus 512 vs 384, 1gb vs 768mb (più che altro per la velocità delle mem)... core che a momenti prende fuoco... se sarà effettivamente così vuol dire che l'architettura nv è qualcosa di fenomenale! Non ci resta che...indovinate? :D

Beh quoto...2% secondo me sono troppo ma troppo pochi...almeno un 10% ma come minimooo.

belin
20-03-2007, 19:03
R600 +50% prestazioni su 8800

8900 +50% prestazioni su R600

R700 +50% prestazioni su 8900

G90 +50% prestazioni su R700

Il tutto con driver beta molto acerbi.

Altrimenti??? altrimenti ci arrabbiamo.

:O















:sofico:

Athlon 64 3000+
20-03-2007, 19:12
c'è da dire che anche se fosse un 15% più veloce della 8800GTX e costasse 600 euro sarebbe troppo lo stesso perchè penso che quando uscira la 8800GTX la si troverà sui 500 euro e 100 euro in meno per un 15% di prestazioni si posso anche accettare.

TecnoWorld8
20-03-2007, 19:20
a dire il vero, se costasse 600 euro o più, e andasse davvero solo dal 5 al 15% + veloce di una GTX, dubito che la GTX scenderebbe di prezzo...dopotutto, ora si trova sui 500 euro o poco più, penso che per quella differenza di prestazioni e nessuna differenza di features grafiche (Entrambe dx10) molti prenderebbero cmq la gtx a 500...

per l'estate, ovviamente, scenderanno entrambe di prezzo. prevedo sui 400 euro per la gtx e 500 per la r600

Alexkidd85
20-03-2007, 20:56
Mi chiedo(domanda venutami mentre ero in un profondo stato di calma....in bagno praticamente),ma con la riduzione di processo produttivo,assodato che sarà fatto anche per soddisfare un incremento di frequenza sul core,potrebbe far dimunire la potenza richiesta e quindi eliminare il fastidiosissimo connettore 8 pin!? :confused:

Marko91
20-03-2007, 21:45
Il core è ancora a 800 Mhz e 3D Mark non è affidabilissimo. Quello che manca sia per G80 che per R600 per buoni test è il software DirectX10.
Senza quello come si fa a capire quale delle due case ha lavorato meglio?
E sopratutto quale si sceglie? :D Magari G80 va più veloce in Dx9 e R600 in Dx10...

Foglia Morta
20-03-2007, 21:58
http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1

We spoke with dozen of contacts and we can now confirm that R600 is a 80 nanometre chip. It is not 60 nanometre and it won't be 65 nanometre as going from 80 nanometre to 65 requires complete redesign of chip.


ATI doesn't have the time for it and we don't believe that AMD / ATI could get away deceiving dozens of its partners and OEM's with news that R600 is 80 nanometre, until it suits them.


R600 was and is 80 nanometre and when it launches it will be 80 nanometre. Remember G80, Geforce 8800 series is 90 nanometre and it still runs great. So if you do you homework well even the big chip works well.


Sorry to disappoint you but R600 will be re branded and probably cheaper than everyone expects but its very unlikely that we are waiting for G80 killer.


a sentire sto qua parla sempre con qualcuno ma si contraddice nel giro di un paio di giorni :rolleyes:

comunque al momento qualsiasi previsione sulle prestazioni è prematuro... gli unici rumours che bene o male non sono mai stati contraddetti sono il bus 512bit e GDDR4 , una versione di R600 a 65nm con clock più alto avrebbe bisogno anche di memorie con frequenza più alta per dimensionare la banda passante adeguatamente.
Con un ring bus più efficiente del crossbar di g80 e nonostante ciò aver bisogno di un bus a 512bit e gddr4 qualcosa vorrà pur dire...

Kharonte85
20-03-2007, 22:12
Ormai non ci si capisce piu' una mazza...:D

Prendiamo tutto con le pinze...;)

Comunque la news solleva un quesito che mi ero posto anche io: ma passare da una architettura da 80nm a 65nm è davvero cosi' facile e fattibile in tempi brevi come sembrava dalle altre news che facevano riferimento a questo fatto?

Quelle news dicevano che R-600 era stato fatto a 80nm e che c'erano stati problemi (Probabilmente sul consumo) e AMD-ATI aveva rimandato dicendo: No problem, lo facciamo a 65nm! (cavoli che :sborone: :mbe: )

Io non escludo che sia possibile (magari avevano un progetto parallelo :boh:), pero' il dubbio viene...:what:

Athlon 64 3000+
20-03-2007, 22:17
diciamo che ha parte il bus a 512 bit e le gddr4 il resto tutto è possibile.
Penso che giudicare la scheda su delle presunte prestazioni è ancora prematuro.
Io spero che R600 sia comunque almeno a 65 nm.

Pat77
20-03-2007, 22:19
Pero' Lì si parla espressamente di R600XTX...cmq se confermati sarebbero deludenti.

Bisogna considerare pero' che la versione a 65nm probabilmente avra' un clock piu' alto...

Dai dati non ufficiali che girano le xt dovrebbero avere quelle prestazioni, postati anche qui.
Anche prima abbiamo avuto 2900 xt spacciate come rv630, quando ora si dice che questa scheda non abbia alimentazione supplementare.

Kharonte85
20-03-2007, 22:33
Dai dati non ufficiali che girano le xt dovrebbero avere quelle prestazioni, postati anche qui.
Anche prima abbiamo avuto 2900 xt spacciate come rv630, quando ora si dice che questa scheda non abbia alimentazione supplementare.
Si' ma non parliamo degli altri rumors, in quella notizia si ripete il nome di 2900xtx e di r-600xtx per parecchie volte in versione retail (io credo che Vr-zone sia abbastanza affidabile da saper distinguere la xt dalla xtx)...i connettori sono 2: 6+8 (la xt dovrebbe averne solo uno a 6pin)...in sintesi: sembra proprio lei...

Nos89
20-03-2007, 22:41
anche perchè la 8800GTX ci mette poco in oc ad arrivare alle frequenze di 700mhz di core

TecnoWorld8
20-03-2007, 22:41
penso che mai prima d'ora si sia speculato così tanto ed in modo così contradditorio su una GPU; il problema è che c'è stata l'acquisizione di ATi da parte di AMD, di mezzo e dunque tutto è possibile, ora.

Consideriamo che AMD sta producendo chip a 65nm ormai da un paio di mesi abbondanti e che gli altri r6xx saranno a 65nm. Io credo che non sia necessario un "redesign" come dicono lì, ma sicuramente tutto il discorso delle resistenze, impedenze ecc, va ricalcolato, cambiando la dimensione dei circuiti.

In ogni caso, se sarà a 80nm e non sarà un gtx killer, mi aspetto che non costi più di 500/550 euro. non avrebbe veramente senso, altrimenti.

Se invece sarà a 65nm, posso pensare che arrivi a 600 euro.

vedremo...quando scade il maledetto nda?

Kharonte85
20-03-2007, 22:47
vedremo...quando scade il maledetto nda?
:boh: ormai non si sa piu'...si parla di una presentazione ai partner verso fine Marzo...quindi probabilmente non prima della seconda meta' di Aprile...

TecnoWorld8
20-03-2007, 22:50
incredibile...

p.s.: penso non freghi a niente a nessuno, ma 10 anni fa in questo periodo acquistai la mitica 3Dfx VooDoo 1 (Diamond Monster 3D). Fu la mia prima scheda 3D...e trasformò l'universo dei videogiochi.

Kharonte85
20-03-2007, 22:57
incredibile...

p.s.: penso non freghi a niente a nessuno, ma 10 anni fa in questo periodo acquistai la mitica 3Dfx VooDoo 1 (Diamond Monster 3D). Fu la mia prima scheda 3D...e trasformo l'universo dei videogiochi.
In effetti...:mbe:


OT paura!!! :D

TecnoWorld8
20-03-2007, 22:59
lo so, scusate...un attimo di nostalgia canaglia...ora si parla di queste GPU mostruose, con 1GB di memoria...e 10 anni fa nascevano i primissimi chip 3D, con 4MB di memoria e frequenza di 50Mhz........spero non me ne vorranno i moderatori, per questa digressione.

La chiudo qui con la lacrimuccia dei ricordi di un periodo molto diverso, pionieristico, che non tornerà più :cry:

belin
20-03-2007, 23:00
Venghino, siore e siori, venghino!!!

Fudzilla il 16 Marzo ci racconta che: R600 dopo i 65 nm diventerà a 55 nm (http://www.fudzilla.com/index.php?option=com_content&task=view&id=161&Itemid=1)
Oggi, 20 Marzo, dopo averci deliziato con la notizia su R700 (R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1)), ci comunica che R600 sarà sicuramente a 80 nm. (http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1)

...ma quand'è che non li considererete più questi siti di gossip da marciapiede??? o meglio, dategli l'importanza che devono avere: zero, come Corona (:D). Perchè è facile poi per siti del genere dire "avevamo visto giusto". E belin (esclamazione), ci credo!!! nel giro di pochi giorni hanno scritto: 80 nm, 65 nm, 55 nm...uno di questi è giusto per forza!!!

:mc:

Kharonte85
20-03-2007, 23:07
Venghino, siore e siori, venghino!!!

Fudzilla il 16 Marzo ci racconta che: R600 dopo i 65 nm diventerà a 55 nm (http://www.fudzilla.com/index.php?option=com_content&task=view&id=161&Itemid=1)
Oggi, 20 Marzo, dopo averci deliziato con la notizia su R700 (R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1)), ci comunica che R600 sarà sicuramente a 80 nm. (http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1)

...ma quand'è che non li considererete più questi siti di gossip da marciapiede??? o meglio, dategli l'importanza che devono avere: zero, come Corona (:D). Perchè è facile poi per siti del genere dire "avevamo visto giusto". E belin (esclamazione), ci credo!!! nel giro di pochi giorni hanno scritto: 80 nm, 65 nm, 55 nm...uno di questi è giusto per forza!!!

:mc:
:asd:

Athlon 64 3000+
20-03-2007, 23:44
fudzilla è diventato peggio di the inquirer ha spararle grosse.:D
Io naturalmente spero che sia a 65 nm.

Foglia Morta
21-03-2007, 07:43
già postato ?

http://www.behardware.com/news/8691/cebit-release-date-of-the-r600.html


One of the brand selling ATI's products gave us more information regarding the release of R600, or X2900, if we use the commercial name.

According to the documents that we saw, the evaluation samples of the Catseye 102-B600 delivered to ATI's clients and corresponding to the X2900 XT with 512 MB of GDDR3 memory, are scheduled to be released in March 22 (even if ATI has already sent demonstration computers to each manufacturer to show them to their own clients).

As usual now for high end models, ATI will deliver cards produced by subcontractors and the first deliveries of the final product are scheduled for the 21rst of April. The availability for end users will be at the same time as the product release, early May, the time for manufacturers to stick their logos, put the cards in boxes, and ship them.

The same document speaks of the Dragonshead 2 102-B007, or X2900 XTX, featuring 1 GB of DDR4 memory. Release dates are similar to the samples, 22nd of March, but the final products are expected April 1rst and mass availability mid-May. However, as another manufacturer told us that this card might not even be released, we don’t know really who is right and who isn't!

Skullcrusher
21-03-2007, 08:08
Venghino, siore e siori, venghino!!!

Fudzilla il 16 Marzo ci racconta che: R600 dopo i 65 nm diventerà a 55 nm (http://www.fudzilla.com/index.php?option=com_content&task=view&id=161&Itemid=1)
Oggi, 20 Marzo, dopo averci deliziato con la notizia su R700 (R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1)), ci comunica che R600 sarà sicuramente a 80 nm. (http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1)

...ma quand'è che non li considererete più questi siti di gossip da marciapiede??? o meglio, dategli l'importanza che devono avere: zero, come Corona (:D). Perchè è facile poi per siti del genere dire "avevamo visto giusto". E belin (esclamazione), ci credo!!! nel giro di pochi giorni hanno scritto: 80 nm, 65 nm, 55 nm...uno di questi è giusto per forza!!!

:mc:

Questi sono alla frutta....:doh: Ma non si accorgono che si contraddicono da soli? :rolleyes:

halduemilauno
21-03-2007, 08:36
Questi sono alla frutta....:doh: Ma non si accorgono che si contraddicono da soli? :rolleyes:

il 16 aveva un'info il 20 un'altra. succede a tutte le testate di news.
http://www.vr-zone.com/?i=4830

We saw some R600 cards at CeBIT but any form of photography is restricted as AMD is keeping a close watch making sure nothing is leaked outside. Nevertheless, we still managed to get some shots on the retail R600XTX (Radeon X2900 XTX) card. The frontal shot contains sensitive information so we can't show it here.

Just a recap of what we have told you before, R600XTX retail card is codenamed Dragonhead 2. It is a 12-layer card at 9.5" long with a max TDP of 240W. It is clocked at 800MHz on 80nm process technology, 512-bit memory interface and has 1GB GDDR4 memories onboard. It has 6-pin and 8-pin PCIe connectors but two 2x3 PCIe power can be used. Rumors surfaced over at CeBIT that the final product may be on 65nm if it can be produced in time with reasonable good yield. So far we have yet to get a confirmation that the first shipping R600 cards will be on 65nm but we can't rule out that there are experimental R600 chips at 65nm now. If our source is right, the yield at 65nm is poor at this point of time and expect a limited quantity of 20,000 pieces of R600XTX by middle of April.

Next, we got hold of some preliminary benchmarks figures of the R600 XTX card with core clock at 800MHz vs a GeForce 8800 GTX card. Using a Core 2 Extreme 2.93GHz processor on an Intel 975X board, the 3DMark06 score at 1600x1200 resolution is 97xx on the R600XTX compared to 95xx on the 8800GTX. Seems like R600XTX is running slightly faster than 8800GTX on the early release of drivers for R600. AMD is still working hard on the drivers and there are some more performance left to unlock. However, the DX10 benchmarking war between ATi and NVIDIA has not started yet. The targeted display driver version for launch in May is 8.361 or later (Catalyst 7.4 or 7.5).

;)

DVD2005
21-03-2007, 08:49
Venghino, siore e siori, venghino!!!

Fudzilla il 16 Marzo ci racconta che: R600 dopo i 65 nm diventerà a 55 nm (http://www.fudzilla.com/index.php?option=com_content&task=view&id=161&Itemid=1)
Oggi, 20 Marzo, dopo averci deliziato con la notizia su R700 (R700 scheduled for Q1 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=211&Itemid=1)), ci comunica che R600 sarà sicuramente a 80 nm. (http://www.fudzilla.com/index.php?option=com_content&task=view&id=221&Itemid=1)

...ma quand'è che non li considererete più questi siti di gossip da marciapiede??? o meglio, dategli l'importanza che devono avere: zero, come Corona (:D). Perchè è facile poi per siti del genere dire "avevamo visto giusto". E belin (esclamazione), ci credo!!! nel giro di pochi giorni hanno scritto: 80 nm, 65 nm, 55 nm...uno di questi è giusto per forza!!!
:mc:

:asd:

Pat77
21-03-2007, 09:10
Si' ma non parliamo degli altri rumors, in quella notizia si ripete il nome di 2900xtx e di r-600xtx per parecchie volte in versione retail (io credo che Vr-zone sia abbastanza affidabile da saper distinguere la xt dalla xtx)...i connettori sono 2: 6+8 (la xt dovrebbe averne solo uno a 6pin)...in sintesi: sembra proprio lei...

Quella notizia offre un numero e poco più, facendo un sunto di quello che è emerso fin'ora quella differenza sembra da xt più che da xtx, le foto, purtroppo, senza conferme ufficiali dicono ben poco, come già precedentemente è capitato.

Comunque rilancio: delle performance della rv630 si sa nulla?

zorco
21-03-2007, 10:26
il primo prototipo di dissipatore per r600 della Arctic Cooling presentato al cebit:
http://img481.imageshack.us/img481/8526/47c16b20c0419e45f728674mz9.jpg (http://imageshack.us)

http://img481.imageshack.us/img481/3308/49b1058ab93442f81fbfa6ekp6.jpg (http://imageshack.us)

halduemilauno
21-03-2007, 10:31
il primo prototipo di dissipatore per r600 della Arctic Cooling presentato al cebit:
http://img481.imageshack.us/img481/8526/47c16b20c0419e45f728674mz9.jpg (http://imageshack.us)

http://img481.imageshack.us/img481/3308/49b1058ab93442f81fbfa6ekp6.jpg (http://imageshack.us)

e questo la dice lunga su ingombri e calore generato.
;)

Athlon 64 3000+
21-03-2007, 10:34
http://forums.vr-zone.com/showthread.php?t=137689

halduemilauno
21-03-2007, 10:37
http://forums.vr-zone.com/showthread.php?t=137689

ebbene? che quell'accrocco sia ingombrante mi pare evidente. se son tre le ventole in dotazione mi pare ovvio che il calore da smaltire sia tanto.

zorco
21-03-2007, 10:38
http://www.dinoxpc.com/News/news.asp?ID_News=12173&What=News

;)

Athlon 64 3000+
21-03-2007, 10:41
ebbene? che quell'accrocco sia ingombrante mi pare evidente. se son tre le ventole in dotazione mi pare ovvio che il calore da smaltire sia tanto.

prima ho sbagliato a quotarti,volevo solo riportare la notizia.
Comunque penso che se anche fosse a 65 nm R600 scalderà comunque parecchio.

Pat77
21-03-2007, 10:43
e questo la dice lunga su ingombri e calore generato.
;)

"Oltre alle schede con chip ATI R600, lo stesso dissipatore potrà essere utilizzato per quelle con chip NVIDIA G80"

Ingombri e calore simili alla concorrenza a quanto pare...

zorco
21-03-2007, 10:43
ebbene? che quell'accrocco sia ingombrante mi pare evidente. se son tre le ventole in dotazione mi pare ovvio che il calore da smaltire sia tanto.
converrebbe allora dotarla di un sistema a liquido anzichè subire i decibel di tre ventole sparate a chissà quale regime di rotazione...

fukka75
21-03-2007, 10:45
Il fatto che sia utilizzabile anche su G80 non significa affatto che hanno ingombri e calore simili: per quel che ne sappiamo potrebbe essere anche sovradimensionato per G80 ;)

halduemilauno
21-03-2007, 10:46
prima ho sbagliato a quotarti,volevo solo riportare la notizia.
Comunque penso che se anche fosse a 65 nm R600 scalderà comunque parecchio.

ok.

Pat77
21-03-2007, 10:46
O potrebbe esserlo per R600...

fukka75
21-03-2007, 10:47
Ovviamente, non per niente ho scritto "per quel che ne sappiamo" ;)