PDA

View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 [20] 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49

Matalf
07-07-2009, 09:54
-cut-

ricodandiamoci anche che alla fin dei conti il sistema è buggato e le GTX non entrano quasi mai in modalità 2d :asd:

michelgaetano
07-07-2009, 11:19
Se proprio dovessi indovinare qualcosa tirando a caso mi concentrerei su una sequenza di 6 numeri piuttosto...

:asd:

LOL :asd:

dipende sempre da quanto decidono in casa Ati (come sempre al lancio di un prodotto completamente nuovo Nvidia, Intel, Amd per le cpu.....:D ) tenuto conto di tutte le circostanze..

Eh sì... qualcuno si sbilancia? Rata ha preferito non pronunciarsi :asd: :D

con la tua identica config due anni fa mi andava benissimo ( pero' e6600 occato a 3ghz, di default è quasi una bestemmia) :D

Eh, neanche sapevo cosa fosse l'overclock, fai tu :stordita: :cry: Però a 1680 non avrebbe dovuto far così schifo... boh, ormai :D

okorop
07-07-2009, 12:13
ricodandiamoci anche che alla fin dei conti il sistema è buggato e le GTX non entrano quasi mai in modalità 2d :asd:
quoto e alla fine si va a consumare una cifra anche in idle....sistema nvidia fatto alla cavolo....ati+ati tray tool è la soluzione migliore per consumare di meno :)

michelgaetano
08-07-2009, 08:01
http://img3.imageshack.us/img3/6237/93099403.jpg

COdemasters dovrebbe essere per DiRT 2, ma gli altri 3?

Dev42
08-07-2009, 08:06
COdemasters dovrebbe essere per DiRT 2, ma gli altri 3?

Stassa domanda che mi faccio anche io :confused:

Athlon 64 3000+
08-07-2009, 08:52
Vedo che AMD finalmente ha capito che un rapporto più stretto con sviluppatori e publisher è molto importante per far si che eventualmente sfruttino meglio le loro architetture.

Dev42
08-07-2009, 09:06
Vedo che AMD finalmente ha capito che un rapporto più stretto con sviluppatori e publisher è molto importante per far si che eventualmente sfruttino meglio le loro architetture.

Meno male, AMD si è svagliata negli ultimi mesi ;)

<^MORFEO^>
08-07-2009, 09:09
Per come la vedo io la situazione non è molto cambiata rispetto a prima su questo fronte...

Per lo sviluppo di questi ultimissimi giochi in dx11, gli sviluppatori devono affidarsi ad ATI/AMD semplicemente perchè nVidia con le sue schede dx11 è ancora in alto mare e quindi non riesce a fornire le schede per lo sviluppo dei giochi con il marchio nVidia come di solito accade... Secondo me, da parte degli sviluppatori è più una scelta obbligata che una scelta di tipo commerciale!

Ciò non toglie che sia comunque un'ottima notizia questa! :D

Athlon 64 3000+
08-07-2009, 09:19
Io sarei anche curioso eventualmente chi possiede attualmente una HD 4850,HD 4870 e HD 4890 essendo dx 10.1 che vantaggi potranno portare eventualmente le dx11 e windows 7.

michelgaetano
08-07-2009, 09:51
Per come la vedo io la situazione non è molto cambiata rispetto a prima su questo fronte...

Per lo sviluppo di questi ultimissimi giochi in dx11, gli sviluppatori devono affidarsi ad ATI/AMD semplicemente perchè nVidia con le sue schede dx11 è ancora in alto mare e quindi non riesce a fornire le schede per lo sviluppo dei giochi con il marchio nVidia come di solito accade... Secondo me, da parte degli sviluppatori è più una scelta obbligata che una scelta di tipo commerciale!

Ciò non toglie che sia comunque un'ottima notizia questa! :D

È comunque una buona possibilità per AMD per instaurare questi rapporti.

Semplice:

- In Windows 7, Aero si avvantaggia delle DX10.1 per fare un offload del dwm sulla GPU scaricando il peso dalla CPU.

- Un motore DX11 scalerà in modo semplicissimo verso le DX10.1 e le DX10, rendendo disponibili a questi subset le sole funzioni che hanno. Questo significa che un motore DX11 avvanteggiarà comunque una VGA DX10.1 rispetto ad una DX10 in condizioni di AA attivo (soprattutto ad alte risoluzioni).

Questa è una buona notizia anche per chi ha schede della generazione precedente, forse ancor meglio per chi ha scelto Ati (e quindi dirx 10.1).
Speriamo l'andazzo sia questo, non se ne può più delle directx 9 :rolleyes:

Dev42
08-07-2009, 10:00
È comunque una buona possibilità per AMD per instaurare questi rapporti.



Questa è una buona notizia anche per chi ha schede della generazione precedente, forse ancor meglio per chi ha scelto Ati (e quindi dirx 10.1).
Speriamo l'andazzo sia questo, non se ne può più delle directx 9 :rolleyes:

Ti quoto e stra quoto :D

Foglia Morta
08-07-2009, 11:21
http://www.theinquirer.net/inquirer/news/1432998/general-purpose-gpus-rule-earth

GENERAL PURPOSE graphics processing units (GPGPUs) should take the market by storm by the fourth quarter of this year, according to analysts, who reckon this trend will boost AMD at the expense of Nvidia and Intel.

As Moore's Law propels the industry, it is becoming common to look to parallel software tools and applications to tap the potential of the multi-threaded, multi-cored microprocessors in PCs, servers and workstations.

Boffins from market research outfit, GC Research, reckon the age of disruptive parallel computing has arrived and has the potential to change the competitive landscape of the industry in a big way. Not that this should come as a surprise, computer scientists and chip firms have been talking about it for several years.

GC reckons that even AMD's purchase of ATI a few years back goes to prove how vital it was, and still is, for Daamit to push towards a more cooperative form of computing, not only for the benefit of consumer multimedia applications, but also for affordable scientific computing.

With both Win 7 and Apple's Snow Leopard due out on Q409, GC says the industry, and consumer market in particular, can prepare itself for a GPGPU explosion.

GC thinks AMD is best placed to take advantage of this trend, because its engineers have expertise in GPUs and CPUs. Of the three big chip firms, AMD would appear uniquely placed to bridge the world of graphics processors and X86 architecture, say GC's beard-strokers.

Littler chipper, currently somewhat behind rival Intel in X86 performance, is already making strides towards that very goal, with the rollout of its Tigris notebook platform and Fusion marketing campaign. Both efforts put the firm firmly on track to hit its target of having a 32nm-based Fusion platform - integrating the CPU and GPU onto a single piece of silicon - by 2011.

Meanwhile, Nvidia has been somewhat ahead in the GPGPU game, not only offering extra transistors on the GPU for programmability, but also its own Cuda C compiler. The Green Goblin has also said it will support all open APIs, including OpenCL and Microsoft's proprietary Direct Compute X in Windows 7.

But GC reckons that since it's only new apps which can take advantage of Nvidia's current leadership, its GPGPU dominance is actually worth surprisingly little, as the commercial PC space probably won't fully begin to take advantage of the capability for some time.

A transition, says GC, will take years, and this is what will eventually hurt Nvidia, which doesn't have an X86 processor license and thus will never be able to offer an integrated platform. This leaves the firm facing a very distinct possibility of losing entry-level and mainstream PC client platforms to Intel and AMD.

However, GC says that even if Nvidia loses a chunk of the entry-level and mainstream market, its gross margins should improve as its new users will likely be high-end science boffins and professionals.

As for Chipzilla, it too has been chipping away at Larrabee, the high-end discrete graphics engine it hopes will serve as a GPGPU engine. The Intel master plan is to have lower-end desktop and notebook offerings - including a multi-chip packaged CPU on 32nm and a GPU on 45nm - by the first half of 2010 and move the graphics engine to the same process nodes as the CPU by 2011.

This means Intel may well still come out a winner in GPGPUs over the longer term. But GC thinks replacing profitable X86 cycles with cheaper and less lucrative GPGPU cycles may hurt the chip giant's revenue growth a smidgen, especially in the consumer and scientific computing segments.

Meanwhile, Intel continues to add more cores while peddling its multi-threading tech to the masses, just in case developers decide to make apps to suit. µ

Milotto
08-07-2009, 11:36
Foglia Morta top criminal news publisher of the year....... :D
;)

eXeS
08-07-2009, 11:40
ricodandiamoci anche che alla fin dei conti il sistema è buggato e le GTX non entrano quasi mai in modalità 2d :asd:
Ma perpiacere, è capitato anche al sottoscritto che a volte uscendo da un gioco le frequenze rimanessero in 3d, ma da qui a dire che le schede non entrano quasi mai in modalità 2d significa fare disinformazione.

Secondo te ora la scheda non è in 2d ?
http://www.pctunerup.com/up/results/_200907/th_20090708123919_nuovo-1.jpg (http://www.pctunerup.com/up/image.php?src=_200907/20090708123919_nuovo-1.jpg)

Bastoner
08-07-2009, 11:41
Ma perpiacere, è capitato anche al sottoscritto che a volte uscendo da un gioco le frequenze rimanessero in 3d, ma da qui a dire che le schede non entrano quasi mai in modalità 2d significa fare disinformazione.

Secondo te ora la scheda non è in 2d ?
http://www.pctunerup.com/up/results/_200907/th_20090708123919_nuovo-1.jpg (http://www.pctunerup.com/up/image.php?src=_200907/20090708123919_nuovo-1.jpg)

E' un problema riconosciuto e conclamato su centinaia di forum in tutto il mondo. :rolleyes:
Restano quasi sempre in 3d.

eXeS
08-07-2009, 11:50
E' un problema riconosciuto e conclamato su centinaia di forum in tutto il mondo. :rolleyes:
Restano quasi sempre in 3d.

A volte non tornano in 2d, il che è molto diverso.

Bastoner
08-07-2009, 11:53
A volte non tornano in 2d, il che è molto diverso.

Vabbè, pensala come vuoi. Fra l'altro siamo OT.

goldorak
08-07-2009, 12:56
E' un problema riconosciuto e conclamato su centinaia di forum in tutto il mondo. :rolleyes:
Restano quasi sempre in 3d.

Mah dipendera' dal firmware della scheda sicuramente.
Perche' io ho una 9800gtx+ e ogni volta che esco da un gioco 3d la frequenza del core e della ram video scendono.
A 300Mhz per il core e 100 Mhz per la ram.
L'unica volta che si e' bloccato sul 3d e' stato per un benchmark del cavolo, ma con i giochi mai.
Ritorni al desktop dopo la tua sessione di gaming, ti ritrovi puntalmente le frequenze da 2d. :D

michelgaetano
08-07-2009, 14:38
Siete tremendamente OT qui, ci sono i thread appositi :D

Lamana
08-07-2009, 18:18
Tanto per rientrare in topic, siamo ancora al punto che la 5870 dovrebbe vedere la luce entro fine estate, massimo ottobre-novembre? (non ho seguito tanto negli ultimi giorni) :oink:

Mercuri0
08-07-2009, 22:53
Vedo che AMD finalmente ha capito che un rapporto più stretto con sviluppatori e publisher è molto importante per far si che eventualmente sfruttino meglio le loro architetture.

E da dove si vede? Io direi
"Vedo che AMD recentemente sta investendo maggiormente sul marketing, e la buona tempistica dell'uscita dei suoi prodotti nei tempi recenti le consente di approfittare del treno Windows 7"

Per qualche mese invece nVidia farà la campagna "il directx11 non serve a niente".

The_SaN
08-07-2009, 23:00
Per qualche mese invece nVidia farà la campagna "il directx11 non serve a niente".Un po' come per le dx10.1 diciamo...

[Bastard Inside Mode ON] Infatti nVidia NON ha in cantiere schede dx10.1 :O [Bastard Inside Mode OFF]

Foglia Morta
09-07-2009, 15:13
Nell'articolo linkato immagini ( relative al tessellatore ) e un video

http://www.pcgameshardware.com/aid,689522/AMD-beliefs-DirectX-11-Radeons-pleasantly-fast/News/

AMD beliefs: DirectX 11 Radeons pleasantly fast
AMD's Developer Relations Chief Richard Huddy demonstrated the abilities of the first DirectX 11 graphics card from the Evergreen series. He is sure that the DX11 graphics cards will be a pleasant surprise when they are released later this year.

AMD's Evergreen family of DirectX 11 compatible graphics card is supposed to be launched in 2009 - the GPU manufacturer is quite sure that it will be possible to offer DirectX 11 cards in time for the release of Microsoft's Windows 7 on October 22.

According to AMD's head of the Developer Relations department, Richard Huddy, AMD expects to be surprise the customers with the performance of the Evergreen cards. Mr. Huddy said:

"I would say we don't make money by delivering slow hardware. Our expectation is that we'll give you a really pleasant surprise this year when we ship our DX11 hardware."

After that he ran several DirectX 11 demos that demonstrated the advantages of Hardware Tessellation and DirectX 11 Compute Shaders on appropriate DirectX 11 compatible graphics cards. As it has already been the case at the Computex AMD concealed the real performance of the graphics card - accordingly the fps values visible on the display are not representative for the final products. The Evergreen card with a dual slot cooling solution is, according to Huddy, neither an entry level nor a high-end product - it is supposed to be part of the product array above 100 USD.

Below the video interview with Richard Huddy you can find an example for the DirectX 11 Tessellation Wireframe Mode.

Athlon 64 3000+
10-07-2009, 13:26
http://www.fudzilla.com/content/view/14609/1/

Da prendere con le dovute pinze.:D

Free Gordon
12-07-2009, 11:22
http://www.fudzilla.com/content/view/14609/1/

Da prendere con le dovute pinze.:D

troppo presto, che ce ne facciamo ad agosto di una dx11? :D

Matalf
12-07-2009, 11:47
troppo presto, che ce ne facciamo ad agosto di una dx11? :D

dai che qualche utilizzo si trova :D


pensa alle persone nell'altro emisfero... la possono usare al posto della stufa xD

manga81
12-07-2009, 23:57
le 4770 sono tutte dual slot?

quali sono le 4770 single slot?

Matalf
13-07-2009, 06:19
le 4770 sono tutte dual slot?

quali sono le 4770 single slot?

sono tutte dual slot, al massimo possono avere il connettore singolo e il dissi dual

http://www.hwupgrade.it/articoli/skvideo/2244/crossfire_apertura.jpg

Foglia Morta
13-07-2009, 10:35
Command & Conquer 4 sarà pc only ed è un gioco sponsorizzato AMD , magari sarà DX11 :ave:

http://www.commandandconquer.com/cnc4/index.html

Matalf
13-07-2009, 12:30
Command & Conquer 4 sarà pc only ed è un gioco sponsorizzato AMD , magari sarà DX11 :ave:

http://www.commandandconquer.com/cnc4/index.html


Dai che forse AMD si è svegliata e incomincia a capire l'importanza del mercato dei gamer :sperem:

DarthFeder
13-07-2009, 14:14
Command & Conquer 4 sarà pc only ed è un gioco sponsorizzato AMD , magari sarà DX11 :ave:

http://www.commandandconquer.com/cnc4/index.html

Era ora!!!! L'ultimo gioco sponsorizzato da ATi (era ancora indipendente) che ho visto è stato il secondo Freedom Force...dev'essere del 2006 o giù di lì...

Foglia Morta
14-07-2009, 14:17
http://www.pcgameshardware.com/aid,689924/DirectX-11-Compute-Shader-Three-times-faster-than-DX101-due-to-Local-Data-Share/News/

DirectX 11 Compute Shader: Three times faster than DX10.1 due to Local Data Share

AMD's Developer Relations boss Richard Huddy explains the mode of operation of Ambient Occlusion - the DirectX 11 Compute Shader is said to provide up to three times the performance possible with direct 10.1.

Using a Compute Shader path in DirectX 11 could offer up to three times the performance possible with DirectX 10.1, mentions Richard Huddy, AMD Developer Relations, in an interview with Pc Games Hardware. And even in DirectX 10.1 modern Radeon cards with their Fetch4 feature are able surpass pure DirectX 10 devices like the current Geforces.

But at the same time Huddy explains that Compute Shader is uncharted territory for developers and thus it is hard to integrate. Getting the optimum out of it is even harder currently.

In matters of possible performance benefit Huddy calls the Local Data Share (the memory shared between the SIMDs), which is required by DirectX 11, a Killer-Feature. Especially in Screen Space based Ambient Occlusion it is possible to safe huge amounts of data traffic resulting in less workload for the bandwidth and texture units which are used to read the data.

Athlon 64 3000+
15-07-2009, 10:02
http://forums.vr-zone.com/news-around-the-web/456993-command-conquer-4-support-dx11.html

Matalf
15-07-2009, 10:44
http://forums.vr-zone.com/news-around-the-web/456993-command-conquer-4-support-dx11.html

anche se si sono visti solo pochi Shot sembra un gran bell RTS, come tutti i comand & Conquer in fondo :D

appleroof
16-07-2009, 18:34
Che viaggio si è fatto questo :asd: :asd:

http://forum.beyond3d.com/showpost.php?p=1312435&postcount=1127

Matalf
16-07-2009, 18:39
http://www.lastampa.it/multimedia/scienze_tecnologie/182_album/canna01.jpg
:asd:

appleroof
16-07-2009, 18:40
http://www.lastampa.it/multimedia/scienze_tecnologie/182_album/canna01.jpg
:asd:

:sofico: :D

Loll007
16-07-2009, 19:25
edit

Loll007
16-07-2009, 19:26
LSD

Matalf
16-07-2009, 19:34
Già leggevo anch'io quella cosa, mi ero fatto lo stesso filmino su Cypress (i cipressi si mettono notoriamente ai lati di un viale), ma per pudore ero stato zitto.

Va anche detto che Jawed di solito non è uno sprovveduto...

si ok potrebbe avere anche un senso ma conoscendo i nomi dei proci AMD mi sembra stano (Istambul, Santa clara...)

The_SaN
16-07-2009, 22:36
si ok potrebbe avere anche un senso ma conoscendo i nomi dei proci AMD mi sembra stano (Istambul, Santa clara...)Ammazza, quello lí si fuma gli spinaci e mangia l'erba di qualité :asd:
Certo che i conti tornano (anche se in modo insano e contorto) e io spero sia vero :D

kinotto88
17-07-2009, 00:19
edit

Athlon 64 3000+
18-07-2009, 18:54
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/577-rv870-erst-im-november

Kharonte85
18-07-2009, 19:11
RV870 only in November

As already written, and over the release date of the new diagram map generation of AMD/ATi one speculates to much. As was reported now us by industrialnear sources, the RV870 was shifted on November. This is to a large extent because of the bad Yield rate of TSMC, and this is not to improve shortly also. Thus the Yield rate became not better from enterprisenear sources of TSMC always still very modestly and even after further optimizations without result.

Despite these problems we assume that a Launch is possible for early beginning from November. This situation has a positive aspect, i.e. the better availability as with a Launch in October, whereby we nevertheless expect a Paperlaunch in the month mentioned.



http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/577-rv870-erst-im-november



CVD

Tristezza infinita, questi problemi di TSMC stanno facendo ristagnare tutto il mercato delle GPU...:zzz:

Poi questa cosa non fa nemmeno ben sperare per il futuro...

Dany16vTurbo
18-07-2009, 19:46
era prevedibile però....

michelgaetano
18-07-2009, 20:18
Ahia.

Ma è sicura?

The_SaN
18-07-2009, 20:20
Vuol dire che a Dicembre quando passeró il mesetto di vacanze in Italia ... :fiufiu:

Ma che stó dicendo? Mi arriva la 4870 1GB tra 5 giorni :eek:

Foglia Morta
18-07-2009, 21:15
Ahia.

Ma è sicura?

c'avessero preso una volta quelli di ati-forum... da loro in passato solo rumors inventati, e neanche di prima mano ma scopiazzati da altri

michelgaetano
18-07-2009, 21:22
c'avessero preso una volta quelli di ati-forum... da loro in passato solo rumors inventati, e neanche di prima mano ma scopiazzati da altri

Attendiamo maggiori conferme allora.

È strano, in Ati sembravano piuttosto fiduciosi di anticipare 7, possibile abbiano cannato così tanto?

Kharonte85
18-07-2009, 22:50
Attendiamo maggiori conferme allora.

È strano, in Ati sembravano piuttosto fiduciosi di anticipare 7, possibile abbiano cannato così tanto?

E' possibile per il semplice fatto che non dipende da loro se le rese dei 40nm fanno schifo...:fagiano:

Foglia Morta
18-07-2009, 22:59
Attendiamo maggiori conferme allora.

È strano, in Ati sembravano piuttosto fiduciosi di anticipare 7, possibile abbiano cannato così tanto?

Appunto... conta che la produzione di massa di RV790 è cominciata a Gennaio. Quando ATi ha detto che per l'uscita di Seven avrebbero già avuto le schede DX11 in commercio era al Computex di Giugno , probabilmente era già cominciata la produzione di gpu DX11 e se si sono sbilanciati è perchè hanno dati certi

The_SaN
19-07-2009, 00:58
Appunto... conta che la produzione di massa di RV790 è cominciata a Gennaio. Quando ATi ha detto che per l'uscita di Seven avrebbero già avuto le schede DX11 in commercio era al Computex di Giugno , probabilmente era già cominciata la produzione di gpu DX11 e se si sono sbilanciati è perchè hanno dati certiPensandoci un po' su, é probabile.
Anche perché é un chip relativamente semplice (pensando alla controparte verde)

michelgaetano
19-07-2009, 08:19
Appunto... conta che la produzione di massa di RV790 è cominciata a Gennaio. Quando ATi ha detto che per l'uscita di Seven avrebbero già avuto le schede DX11 in commercio era al Computex di Giugno , probabilmente era già cominciata la produzione di gpu DX11 e se si sono sbilanciati è perchè hanno dati certi

Appunto.

Aspettiamo eventuali conferme o smentite allora.

E' possibile per il semplice fatto che non dipende da loro se le rese dei 40nm fanno schifo...:fagiano:

Ma questo lo sapevano già, è quello il punto.

ghiltanas
19-07-2009, 10:27
il punto è anche con che disponibilità eventuale verrà lanciato rv870, e con prezzo...se la resa è cosi bassa come dicono il prezzo dei chip salirà inevitabilmente :(

Athlon 64 3000+
19-07-2009, 10:58
LO solo riportato come dovere di cronaca,ma penso che quel rumor sia una bella cavolata perchè sono sicuro che RV870 sarà gia sul mercato quando Windows 7 arriverà nei negozi.

Mister Tarpone
19-07-2009, 11:13
insomma ce la fa ad uscire o no la 5850 per ottobre? che mi voglio fare un lynnfield e vga dx11 proprio per quel periodo? :confused:

michelgaetano
19-07-2009, 11:24
insomma ce la fa ad uscire o no la 5850 per ottobre? che mi voglio fare un lynnfield e vga dx11 proprio per quel periodo? :confused:

Non c'è conferma a quel rumor per ora Tarpo.

Quello che pensiamo è che AMD difficilmente si sarebbe potuta sbagliare così pesantemente (cioè che prima dicono di anticipare 7, e poi finire addirittura dopo).

C'è da aspettare insomma... tanto sei copertissimo :sofico:

Mister Tarpone
19-07-2009, 11:26
tanto sei copertissimo :sofico:

questo è vero :ciapet:

manga81
20-07-2009, 09:03
sono tutte dual slot, al massimo possono avere il connettore singolo e il dissi dual

http://www.hwupgrade.it/articoli/skvideo/2244/crossfire_apertura.jpg

peccato :muro:

Foglia Morta
20-07-2009, 09:54
con il copia-incolla restano delle scritte in cinese ma nel link è tutto in inglese , abbastanza comprensibile

http://translate.google.it/translate?u=http%3A%2F%2Fwe.pcinlife.com%2Fthread-1211919-1-1.html&sl=zh-CN&tl=en&hl=it&ie=UTF-8

With the new sources, huh, huh, but not the NDA sources, so true unknown

RV870是两颗RV840封装在一起,采用增强Sideport高速互联,以至于从实际应用,性能包括驱动的角度看起来RV870就像一颗GPU一样,规格为RV840的两倍,即1600SP/256bit,A11 XT版3Dmark Vantage至少达P17000+。 RV870 is a package with two RV840, Sideport enhanced high-speed Internet, so that from a practical application, performance-driven point of view including the RV870 looks like a GPU, the RV840 specifications for the double 1600SP/256bit, A11 XT version of 3Dmark Vantage at least P17000 +. 单颗RV840核心面积类似于RV670,但受128bit影响性能介于4850和4890之间,RV870论性能肯定无法超越传说中离谱的双512的GT300,但是代号为毒药的R800(双RV870)肯定完胜。 Single RV840 core area is similar to RV670, but the impact of performance 128bit between 4850 and 4890 between, RV870 certainly can not go beyond the performance of the legendary two-out 512 of the GT300, but the poison code-named R800 (dual RV870) victory sure.

观后感几点: Feedback points:
1. A记的策略确实和N记已经明显差别,N记的大核心,A记的多GPU互联都是技术的挑战 1. A true strategy in mind and N have significant differences in mind, N core in mind, A mind is a multi-GPU technology, the Internet challenge
2. 256bit的GDDR5对性能的影响不可小视 2. 256bit the GDDR5 can not be on the performance of



另附楼下回帖: Separate downstairs replies:

其实RV870最早的规格很黄很暴力.....1920SP...384bit....可惜TSMC不争气.... In fact, the specifications of RV870 is the first yellow very violent ..... 1920SP ... 384bit .... .... unfortunately fail to live up to TSMC


不是TSMC做得出做不出的问题,而是TSMC 40nm的不成熟使得ATI临时减少规格,说穿了,40nm现在这个情况谁都核心越大谁漏电问题越严重,GT300为撒难产?不就是因为核心大触雷了么... TSMC not able to do not come, but the immature enabled TSMC 40nm temporary reduction ATI specifications, put it bluntly, 40nm is now the core of this case no one who is greater the more serious leakage problem, GT300 difficult to let go? Not because core of what mine ...

Milotto
20-07-2009, 09:58
Se ho ben capito RV870 ha 1600SP con bus a 256bit ...mentre in origine le sue specifiche erano 1920sp con bus a 384bit; sono state ridimensionate a causa delle difficoltà di TMSC con il pp a 40nm ....
La prima affermazione ci sta ma non credo alla seconda non tanto per i 1920Sp quanto per il bus a 384bit...mi suona strana anche la cosa del dual RV840 in un die..

Marko91
20-07-2009, 10:52
Se ho ben capito RV870 ha 1600SP con bus a 256bit ...mentre in origine le sue specifiche erano 1920sp con bus a 384bit; sono state ridimensionate a causa delle difficoltà di TMSC con il pp a 40nm ....
La prima affermazione ci sta ma non credo alla seconda non tanto per i 1920Sp quanto per il bus a 384bit...mi suona strana anche la cosa del dual RV840 in un die..

I 1920sp ridimensionati a 1600 sono credibili, ma non lo sono i 384bit. Potrebbe essere che RV840 ha 12 SIMD e per aumentare le rese commercializzaranno RV840 a 10 SIMD. Ma la cosa non torna per i 384bit.. RV840 avrebbe 192bit? Non dovrebbero disabilitare anche le RBE se disabilitano pezzi del controller di memoria per aumentare le rese?

Foglia Morta
20-07-2009, 11:18
Comunque da quel che si legge su Chiphell la soluzione 1600sp sarebbe "temporanea" , e il problema non sarebbe l'ottenere die funzionanti ma il leakage.
la soluzione multi-die è credibile... si era già accennato a rilevanti costi di packaging , può essere che in un package ci stiano più RV840 ( o Juniper , Cypress , quel che è )

Milotto
20-07-2009, 11:25
Comunque da quel che si legge su Chiphell la soluzione 1600sp sarebbe "temporanea" , e il problema non sarebbe l'ottenere die funzionanti ma il leakage.
la soluzione multi-die è credibile... si era già accennato a rilevanti costi di packaging , può essere che in un package ci stiano più RV840 ( o Juniper , Cypress , quel che è )

Qualsivoglia soluzione adotteranno...se queste indiscrezioni sono credibili RV870 sarà più che una semplice evoluzione di RV770..mi intriga anche la faccenda sideport...(che allo stato attuale non ha alcuna utilità.. ma di sicuro ha un senso..)

Foglia Morta
20-07-2009, 11:27
Qualsivoglia soluzione adotteranno...se queste indiscrezioni sono credibili RV870 sarà più che una semplice evoluzione di RV770..mi intriga anche la faccenda sideport...(che allo stato attuale non ha alcuna utilità.. ma di sicuro ha un senso..)

i cinesi imo qualcosa lo sanno... ma è difficile separare le speculazioni personali dai dati più concreti :(

Mister Tarpone
20-07-2009, 16:11
MIA.

Mister Tarpone
20-07-2009, 16:19
Se ho ben capito RV870 ha 1600SP con bus a 256bit ...mentre in origine le sue specifiche erano 1920sp con bus a 384bit; sono state ridimensionate a causa delle difficoltà di TMSC con il pp a 40nm ....
La prima affermazione ci sta ma non credo alla seconda non tanto per i 1920Sp quanto per il bus a 384bit...mi suona strana anche la cosa del dual RV840 in un die..

no un momento... io quello che ho capito da li è che la soluzione a single gpu, RV840, avrà 1600sp...

perchè se non fosse così praticamente vorrebbe dire che la single gpu avrebbe 800sp come le attuali ati.. mentre la RV870 formata da 2 rv840, 1600 come la dual attuale :mbe:

Matalf
20-07-2009, 16:38
no un momento... io quello che ho capito da li è che la soluzione a single gpu, RV840, avrà 1600sp...

perchè se non fosse così praticamente vorrebbe dire che la single gpu avrebbe 800sp come le attuali ati.. mentre la RV870 formata da 2 rv840, 1600 come la dual attuale :mbe:

Boh questo articolo mi ha confuso....
e poi non riesco a capire se questo Rv870 sarà un singolo chip oppure un "x2"



AMD perchè sei così tombale a meno di due mesi dall'uscita di queste schede :(

ghiltanas
20-07-2009, 16:39
Boh questo articolo mi ha confuso....
e poi non riesco a capire se questo Rv870 sarà un singolo chip oppure un "x2"



AMD perchè sei così tombale a meno di due mesi dall'uscita di queste schede :(

veramente di mesi ne mancano sempre 3 :D

michelgaetano
20-07-2009, 16:47
Io ignoro l'articolo cinese per ora, mi ha solo creato confusione :asd:

Matalf
20-07-2009, 16:51
veramente di mesi ne mancano sempre 3 :D

io sono ottimista :asd:


anche perchè aspettero la toxic prima di fare il salto generazionale e un mese in meno non è male :asd:

ghiltanas
20-07-2009, 16:52
io sono ottimista :asd:


anche perchè aspettero la toxic prima di fare il salto generazionale e un mese in meno non è male :asd:

io aspetto rv870 per farmi il pc nuovo, quindi anche a me nn dispiacerebbe uscisse un mese prima :D

Foglia Morta
20-07-2009, 18:31
no un momento... io quello che ho capito da li è che la soluzione a single gpu, RV840, avrà 1600sp...

perchè se non fosse così praticamente vorrebbe dire che la single gpu avrebbe 800sp come le attuali ati.. mentre la RV870 formata da 2 rv840, 1600 come la dual attuale :mbe:

sul numero di sp c'è confusione... alcuni dicono 800 , altri 960 e altri ancora 1200 per die ( 1200 lo diceva qualche cinese giorni fa ). 2 die nello stesso package ( MCM ) farebbero un RV870 ( scheda di fascia performance ). 2 RV870 la scheda top di gamma.

Comunque da pcinlife a chiphell tutti i cinesi parlano di gpu multi-die ( MCM ), il problema è dividere i dati oggettivi dalle speculazioni e i traduttori non aiutano granchè

Mister Tarpone
20-07-2009, 20:17
praticamente = la rv840 sarebbe la 5770.. ed una 5870 sarebbe formata da 2 gpu 5770.
ed anche la 5850 che immagino la differenzieranno dalla 70 con clock + bassi nel core e nelle memorie. poi la 5870x2 con 4 gpu della 5770.

Foglia Morta
21-07-2009, 10:02
Cypress - Juniper - Redwood - Cedar - Hemlock ( enthusiast , performance , mainstream , entry level )

http://www.theinquirer.net/inquirer/news/1468991/amd-evergreen-codenames-revealed

AMD's Evergreen codenames revealed

AFTER MUCH sniffing about, the INQ can finally reveal the names of AMD's much anticipated 40nm DX11-based Evergreen products.

A product launch is thought to be imminent (think late September), and AMD reckons these products will fundamentally change the graphics industry and give it an advantage over arch rival Nvidia.

The highest-end enthusiast offerings are purportedly called Cypress, with performance offerings dubbed Redwood, mainstream offerings called Juniper and Cedar, and low level entry offerings named after the poisionous shrubbery, Hemlock. [bwing me a shwubbery!]

We've heard AMD have already received a wafer back from TSMC and that it's alive, healthy and pretty much ready for ramping production. So the 40nm fully DX11-compliant chips will be ready for launch by the end of September, even slightly ahead of Windows 7.

Nvidia is still a way behind on DX11, and from what we're seeing, AMD seems confident - nay, cocky - that Evergreen will deliver a punch to the Goblin it may take a while to recover from. Lets just hope NV doesn't get ever-green with envy. µ

Athlon 64 3000+
21-07-2009, 10:45
Mi sembra di capire che verranno lanciate le gpu dx11 a fine settembre e scommetto che Juniper potrebbero essere le HD 5870 e 5850 mentre Cypress sarà la HD 5870x2

michelgaetano
21-07-2009, 13:51
Cypress - Juniper - Redwood - Cedar - Hemlock ( enthusiast , performance , mainstream , entry level )

http://www.theinquirer.net/inquirer/news/1468991/amd-evergreen-codenames-revealed

AMD's Evergreen codenames revealed

AFTER MUCH sniffing about, the INQ can finally reveal the names of AMD's much anticipated 40nm DX11-based Evergreen products.

A product launch is thought to be imminent (think late September), and AMD reckons these products will fundamentally change the graphics industry and give it an advantage over arch rival Nvidia.

The highest-end enthusiast offerings are purportedly called Cypress, with performance offerings dubbed Redwood, mainstream offerings called Juniper and Cedar, and low level entry offerings named after the poisionous shrubbery, Hemlock. [bwing me a shwubbery!]

We've heard AMD have already received a wafer back from TSMC and that it's alive, healthy and pretty much ready for ramping production. So the 40nm fully DX11-compliant chips will be ready for launch by the end of September, even slightly ahead of Windows 7.

Nvidia is still a way behind on DX11, and from what we're seeing, AMD seems confident - nay, cocky - that Evergreen will deliver a punch to the Goblin it may take a while to recover from. Lets just hope NV doesn't get ever-green with envy. µ

Foglia nella parte in grassetto hai invertito Juniper (Mainstream secondo l'articolo) con Redwood (Performance).

Per il resto, sembra scampato il pericolo novembre, bene :D

Mi sembra di capire che verranno lanciate le gpu dx11 a fine settembre e scommetto che Juniper potrebbero essere le HD 5870 e 5850 mentre Cypress sarà la HD 5870x2

Cypress è enthusiast, quindi okay la 5870X2, ma la fascia performance, che dovrebbe vedere 5870 e 5850 è Redwood :D

edit: forse ha ingannato la prima riga del post di foglia :D

Free Gordon
21-07-2009, 16:03
Imho saranno 12 domini texture per 192ALU a 5 vie con memory controller a 128 bit...

Solo così riuscirebbero a contenere le dimensioni per Rv840 e a fare un Rv870 "dual".

Mi resta da capire cosa potrà essere la fascia "enthusiast"... perchè mettere 4 Rv840 e farli lavorare bene via driver, con tutti i giochi...hmm.. la vedo tesa.
Basta vedere come funziona il crossfire X oggi...

Oppure ATi ci stupirà con un'architettura del tutto nuova... :sofico: chi lo sa...

Probabile che anche Nvidia a sto giro cambi strategia, sennò stavolta affonda (già con GT200 ha visto margini molto più bassi rispetto ad AMD).


Ps. ovviamente l'Rv840 singolo avrà memcontroller a 256bit, perchè sennò sarebbe troppo castrato (a meno che non esca con ddr5 fantasmagoriche)

Mister Tarpone
21-07-2009, 22:54
:eek:

Matalf
21-07-2009, 23:24
Qualcuno avanza ipotesi su un approccio MCP con due "RV840" a formare "RV870", in modo trasparente al driver al CF e quant'altro, mentre "R800" sarebbe il classico x2 formato da un CF con due RV870 sulla stessa scheda.

A questo punto credo anchio a una cosa del genere.



Per quanto riguarda Nvidia o il suo GT300 ha prestazioni mostruose o questa volta con un altra padella la casa verde se le piglia di santa ragione

Mister Tarpone
21-07-2009, 23:53
con tutte quelle gpu collegate tra di loro spero in un funzionamento del driver decente.. perchè come ha scritto Free, la vedo molto complessa farle lavorare come si deve con tutti i giochi :D

Athlon 64 3000+
22-07-2009, 09:25
http://www.brightsideofnews.com/news/2009/7/21/why-directx-11-will-save-the-video-card-industry-again-and-why-you-dont-care.aspx

Andrea deluxe
22-07-2009, 09:44
:D
http://www.brightsideofnews.com/ThumbL.aspx?file=/Data/2009_7_21/Why-DirectX-11-will-save-the-video-card-industry-again-and-why-you-dont-care\MSFT_DX11_Faces_215.jpg

Foglia Morta
22-07-2009, 10:10
finiti i probelmi con i 40nm...

http://seekingalpha.com/article/150310-advanced-micro-devices-inc-q2-2009-earnings-call-transcript?page=-1

Unidentified Analyst - Raymond James

A question regarding 40 nanometer at the TSMC. There's been rumblings that they've had a tough time with that node and perhaps you guys have as well. To the degree that you had some challenges there, have they been resolved and where are we in that process?

Robert J. Rivet

Yes, we're not expecting any issues with TSMC's 40 nanometer technology to, I'll say, block our opportunities in the market as we walk into the back half of the year.

Unidentified Analyst - Raymond James

So there's no issue going forward regarding the ramp?

Robert J. Rivet

Yes, going forward we don’t see any issues.

Athlon 64 3000+
22-07-2009, 10:12
Se i problemi sono finiti penso che non ci saranno problemi di disponibilità delle gpu dx11 AMD e scommetto che la presentazione ufficiale ci sarà alla fine di settembre per essere cosi gia sul mercato da qualche settimana quando uscirà Windows 7.

Milotto
22-07-2009, 12:39
L'architettura MCP in questo settore è di per se una "innovazione" , e se realmente avremo i due die visti come unica GPU.....non vedo motivo per il quale una X2 debba essere un semplice crossfire...

Andrea deluxe
22-07-2009, 13:03
L'architettura MCP in questo settore è di per se una "innovazione" , e se realmente avremo i due die visti come unica GPU.....non vedo motivo per il quale una X2 debba essere un semplice crossfire...

sarebbe quasi ora di vedere soluzioni dual gpu (indipendeti dal software....)

d.lo
22-07-2009, 13:56
sarebbe quasi ora di vedere soluzioni dual gpu (indipendeti dal software....)

quoto come per le cpu penso sia l'unica via di evoluzione a livello singolo dopo un pò si tocca il limite sforando in consumi da pazzi calore eccetera in multi si può migliorare con il contenimento dei vari problemi secondo mua..



p.s. ma esiste anche il thread del gt 300?? io non riesco a trovarlo vorrei vedere a che punto stanno anche loro, avere un pò di info...

Foglia Morta
22-07-2009, 13:57
L'architettura MCP in questo settore è di per se una "innovazione" , e se realmente avremo i due die visti come unica GPU.....non vedo motivo per il quale una X2 debba essere un semplice crossfire...

MCM ( multi-chip module ), come clarkdale di intel sono più die nello stesso package

Mister Tarpone
22-07-2009, 14:28
Non so, l'approccio MCP con l'utilizzo del sideport, che fin'ora è rimasto inutilizzato, potrebbe cambiare molto le cose. Se progettato adeguatamente potrebbe non far vedere la differenza rispetto ad un singolo chip di caratteristiche doppie.

Poi la x2 (che in ultima analisi sarebbe una x4) avrebbe comunque i soliti problemi da x2 relativi ai driver e al fatto di fare i numeri solo nei titoli da benchmark come tutti i CF/SLi.

3.

concordo
;)

Athlon 64 3000+
22-07-2009, 14:46
Se le HD 5850 e HD 5870 saranno MCM significa che potrebbero avere 2 core sullo stesso die e magari collegati con un bus ad alta velocità.

d.lo
22-07-2009, 14:55
Credo che più che altro una soluzione del genere servirebbe a contenere molto i costi di produzione consentendo di ottenere yelds veramente molto alti, oltre alla possibilità di fare 3 segmenti di mercato con un solo chip e quindi oltre ad una più efficiente economia di scala ottenere anche una riduzione dei costi di R&D.



Sì: http://www.hwupgrade.it/forum/showthread.php?t=1815796

anzi tutto ti ringrazio per la risposta del thread,

poi beh hai detto poco potrebbe essere un ulteriore vantaggio soprattutto se posto in mano ad amd/ati che non si fa problemi a quanto pare a proporre prezzi comunque concorrenziali ultimamente,

potrebbe anche significare un futuro dai prezzi contenuti per l'utente...

Athlon 64 3000+
22-07-2009, 14:58
No, significa che avrebbero due die nello stesso package, con tutta probabilità collegati dal sideport con c'è stato su RV770 e RV790 e non è ancora stato utilizzato.

Tutto ciò ammesso che non sia tutta fuffa, visto che si tratta di un rumor come un'altro :D

Diciamo che la mia è una sparata.
Io preferirei una gpu di piccole dimensioni(tipo RV670) di 180-200 mm^2 con 1600SP bus a 256 bit e che vada almeno come la HD 4870x2 e per max 250 la prenderei subito.

Milotto
22-07-2009, 15:15
Non so, l'approccio MCP con l'utilizzo del sideport, che fin'ora è rimasto inutilizzato, potrebbe cambiare molto le cose. Se progettato adeguatamente potrebbe non far vedere la differenza rispetto ad un singolo chip di caratteristiche doppie.

Poi la x2 (che in ultima analisi sarebbe una x4) avrebbe comunque i soliti problemi da x2 relativi ai driver e al fatto di fare i numeri solo nei titoli da benchmark come tutti i CF/SLi.

3.

Mettere due die nello stesso package con i problemi (termici e non) che la scelta comporta per poi affidarne il collegamento al sideport ...sembra un'assurdità...
Cmq siamo nel campo delle speculazioni e tutto è possibile... :)

Andrea deluxe
22-07-2009, 15:18
Mettere due die nello stesso package con i problemi (termici e non) che la scelta comporta per poi affidarne il collegamento al sideport ...sembra un'assurdità...
Cmq siamo nel campo delle speculazioni e tutto è possibile... :)

basterebbe avere 2 die impostati in modo che il driver li riesca a vedere come risorse e non come speculari da usare ad intermittenza.

Zodd_Il_nosferatu
22-07-2009, 18:16
sbagliato 3d

appleroof
22-07-2009, 18:34
Sembrerà un'assurdità, ma in qualche modo vanno interconnessi, e il sideport sembra proprio il candidato ideale, visto che non è mai stato utilizzato.

Ad ogni modo a quale alternativa pensi?


cut

mi piace, sperando non abbia i problemi dello sli/cf, ma se dici che i driver "vedono" una gpu unica direi che è un'ottima soluzione...vedremo

appleroof
22-07-2009, 19:11
Più che altro non vedo alcun motivo per inserire i due die nello stesso package se non per ottenere mirabolanti prestazioni dell'interconnessione, tali da rendere le due gpu una sola.

Altrimenti tanto vale fare come hanno fatto fino ad ora le x2 :boh:

esatto, sono d'accordo con te...quindi o il tutto è un fake oppure mi sà che hai visto giusto

michelgaetano
22-07-2009, 19:18
esatto, sono d'accordo con te...quindi o il tutto è un fake oppure mi sà che hai visto giusto

Esatto, pensavo proprio la stessa cosa.

Non avrebbe senso altrimenti... cioè non credo sia una questione di semplici costi (peraltro, non ci sarebbe da ricercare e quindi spendere ulteriormente per una soluzione multidie?).

Certo che nonostante la data si avvicini siamo ancora abbastanza in alto mare... :stordita:

Milotto
22-07-2009, 20:44
Più che altro non vedo alcun motivo per inserire i due die nello stesso package se non per ottenere mirabolanti prestazioni dell'interconnessione, tali da rendere le due gpu una sola.

Altrimenti tanto vale fare come hanno fatto fino ad ora le x2 :boh:

Appunto! Non credo che la semplice connessione mediante sideport garantisca tutto ciò...! Se realmente si trattasse di un'architetura MCP non si dovrebbe prescindere da un controller hardware (un "dispatch processor" a monte delle gpu) in grado di gestire il carico di lavoro delle due unità...quantomeno non avrebbe senso non farlo avendo preferito questo approccio al crossfire....
Secondo me sono solo rumor fantasiosi...
Dov'è Yoss...? :)

michelgaetano
22-07-2009, 21:14
Appunto! Non credo che la semplice connessione mediante sideport garantisca tutto ciò...! Se realmente si trattasse di un'architetura MCP non si dovrebbe prescindere da un controller hardware (un "dispatch processor" a monte delle gpu) in grado di gestire il carico di lavoro delle due unità...quantomeno non avrebbe senso non farlo avendo preferito questo approccio al crossfire....
Secondo me sono solo rumor fantasiosi...
Dov'è Yoss...? :)

Qualcuno lo evochi :D

goldorak
22-07-2009, 21:22
Dov'è Yoss...? :)

Scrive articoli per appunti digitali. :D

Foglia Morta
22-07-2009, 21:37
Sono troppo avanti :asd:

http://www.hwupgrade.it/forum/showpost.php?p=24762018&postcount=103

michelgaetano
22-07-2009, 21:50
Sono troppo avanti :asd:

http://www.hwupgrade.it/forum/showpost.php?p=24762018&postcount=103

:ave:

:asd:

Foglia Morta
23-07-2009, 07:50
"news" estrapolata dai commenti ai risultati finanziari, unicà novità gpu mobile DX11 nella prima metà del 2010:

http://www.xbitlabs.com/news/video/display/20090722155600_ATI_Expects_DirectX_11_Graphics_Lineup_to_Ramp_Up_Fast.html

ATI Expects DirectX 11 Graphics Lineup to Ramp Up Fast

ATI, graphics business unit of Advanced Micro Devices, confirmed that it is on-track to launch its first lineup of DirectX 11 graphics processing units (GPUs) “in the back half of the year” and that the product family will ramp up very quickly in the channel market. In addition, AMD promised DirectX 11 graphics chips for mobile computers to arrive in the first half of 2010.

“What I do expect to be an opportunity for AMD in the second half of the year is our introduction of DirectX 11-compatible products, in effect, a new product stack. We expect to be out ahead of our competition and we think that it will have a positive effect on our mix and hence our ASPs in the back half of the year,” said Dirk Meyer, chief executive officer of Advanced Micro Devices.

ATI demonstrated its first DirectX 11 graphics processors at Computex Taipei 2009 in early June, however, it did not outline any actual timeframes for introduction. This time the company revealed several important things: there will be a lineup of DX11-compatible products unveiled this year, ATI’s graphics cards partners will ramp up production of appropriate graphics cards quickly and that mobile DirectX 11-class solutions will be available in the first half of 2010.

“I expect that to be a very quick ramp in the desktop AIB channel, as we refer to it, and expect DirectX 11 to start to showing up in notebooks more like in the first half of next year,” said Mr. Meyer.

If AMD’s ATI unit really manages to be the first company to announce DirectX 11 GPUs, it will be able to enjoy rather high profit margins due to the lack of competition from Nvidia Corp. or Intel Corp.

“The new DirectX 11 stack I referenced will be in 40nm, and clearly that will give us an opportunity to kind of regain the high ground even more substantially and hence improve our mix in ASP and hence margins,” the head of AMD claimed.

There are unofficial reports over the Internet that ATI may release its chip known under “RV870” and “Evergreen” code-names in September or October. However, there are also claims that ATI Radeon HD 5000-series is only due in November.

Athlon 64 3000+
23-07-2009, 09:17
http://www.brightsideofnews.com/news/2009/7/22/ati-to-launch-directx-11-gpus-in-seven-weeks.aspx

Notizia riguardo il presunto lancio delle nuove gpu desktop dx11.

papafoxtrot
23-07-2009, 17:24
Signori sono curiosissimo.
Purtroppo AMD se ne sta zitta come una tomba e credo farà lo scherzo che abbiamo visto con le hd4800...

Vi ricordate quando fino alla settimana prima del lancio rv770 doveva avere 480sp e andare come una 8800gts 512... e tutti a guardare gt200... Poi da un giorno all'altro la notizia
"forse rv770 non ha 480sp... ma un po' di più... forse 800" :D :D :D :D :D :D
E quando arrivò rv770era un chip microscopico con sopra 800sp che al prezzo di 10 dollari in fonderia le davano al gt200?

Io credo succederà qualcosa di simile. AMD era già al lavoro su rv870 prima dell'uscita del 770... Ora è più di un anno che 770 è fuori... Io non credo che un ipotetico 870 avrà 1000 o 1200 sp. Io credo almeno almeno 1600, con una certa propensione per i 2000 sp.

Ora vi ricordate la faccenda del minicore?
Dubito che fosse tutta fuffa... amd quando dice di star facendo qualcosa magari ci mette anni ed anni, come per fusion e bulldozer, ma io sono sicuro che prima o poi qualcosa di simile fa.
Per cui anche il minicore potrebbe essere una strada.
Poi come già detto c'è il sideport. E' già presente sulla hd4870x2 e non ho mai capito come mai non lo attivino.
All'epoca dissero che lo avrebbero attivato "se necessario". Credo che sperassero di arrivare ad un driver in grado di farlo pompare a dovere... ma che fin ora non abbiano prodotto gran ché. Altrimenti se quel sideport sulla 4870x2 servisse a qualcosa e funzionasse a quest'ora sarebbe già attivo nel tentativo di smerdare la gtx295.
Il sideport potrebbe dunque essere il candidato a connettere due chip, eventualmente su singolo package. L'ampiezza del bus sarà sufficiente? BOH.,..
Certo è che amd è pioniera anche del link hyper transport... Facile che sideport sia in realtà qualcosa del genere e di conseguenza, al pari di quanto succede per gli athlon X2 e per gli opteron su schede madri a 2 e 8cpu, possa connettere due chip.

Trovo difficile che il sistema possa riconoscere un chip come un unico processore... Al pari di quanto avviene con i processori i due core penso verrebbero visti come due gpu distinte.
Potrebbero condividere il memory controller e così la memoria? E' possibile, rinunciando in parte alla modularità in produzione... perché se vogliamo che l'approccio sia profiquo in produzione bisogna che i chip del prodotto MCP siano identici a quelli della gpu singola. Se i memory controller rimangono incondivisi la scheda avrà sempre 2x1Gb.. 2x2Gb... 2x512Mb di ram non condivisa... Dubito che lo vedremo su una soluzione MCP sinceramente.

Fra l'altro è dall'anno scorso che si parla di schede video fascia enhusiast con 4 gpu e schede video fascia performance con 2gpu... la base del rumor potrebbe essere proprio la scelta di un prodotto mcp.

Circa il bus: come al solito il bus è limitato dalla dimensione del die. Inutile sperare in un die da 150mm^2 con bus a 512bit. Non è fattibile. ATI ha ridotto il bus passando da r600 a rv670 no solo per ridurre i costi, ma anche perché in rv670, così piccolo, non ci sarebbero state tutte le connessioni necessarie.Nvidia allo stesso modo passando da g80 a g92 ha dovuto rinunciare ai 384bit di bus per via delle dimensioni. Appena ha avuto per le mani una mattonella come il gt200 è tornata al bus ampio.... 512.

E per il prossimo giro nvidia promette un chip da 550 - 600 mm^2, stesse dimensioni di gt200, con bus a 512... tutto coerente... Anche i consumi... alti... ed i costi... altissimi.
D'altra parte nvidia sta rincorrendo il gp-gpu, avendo assunto anche il buon dally, per cui si impegna non solo sul lato "gaming". A detta di dally senza bus ampissimi le schede video sono frenate...

Penso che rv870 avrà il classico 256bit... o al massimo un 384bit, ma se davvero è MPC allora bisogna che in rv840 ci stia un 192bit e non è detto. Se invece cambia il memory controller allora tutto è possibile.

D'altra parte 256bit, in abbinamento alle gddr5 a 7,2GHz che ormai da tempo sono state annunciate come "pronte per la commercializzazione" sarebbe davvero non male! Anche che siano solo 6GHz fornirebbero un bus da 192GB/s... mica male!


Credo anche che a sto giro vedremo una ATI più impegnata nel GP-GPU. La mia ideaq è questa: NVIDIA si è buttata nel gp-gpu anni fa e per ora non sta raccogliendo gran ché, perché il mercato e gli sviluppatori devono avere il tempo di adattarsi. ATI ha risparmiato soldi e si è fatta la sua bella generazione di gpu "gaming" o comunque dedicate alla semplice grafica, economiche e veloci. Ora il mercato è più pronto ed è il momento di prenderci dentro per non restar tagliati fuori. Sono arrivate le OpenCL, le directx 11, si iniziano a vedere sviluppatori interessati... Sto giro potremmo vedere delle firestream davvero potenti e soprattutto un software di sviluppo come dio comanda, comparabile a cuda insomma.

davyjones
24-07-2009, 13:22
Ciao ragazzi,
mi sono imbattuto in questo thread molto incuriosito dai rumors sulla nuova gen di vga ati...e mi sto intrippando!
Il problema per chi non ha seguito il 3d dall'inizio è che questo risulta praticamente inconsultabile! rumors su rumors e voci varie, indiscrezioni e dati certi tutti accavallati!

so che magari chiedo troppo, ma si potrebbe fare un briefing della situazione e delle ipotesi più accreditate nel post n.1 del 3d???
Anche POCHE RIGHE...

Altrimenti un utente che vuole partecipare alla discussione magari anche con domande e interventi, non sa da dove cominciare perché ormai ci sono oltre 200 pagine di post!

Grazie a tutti

Matalf
24-07-2009, 13:28
Ciao ragazzi,
mi sono imbattuto in questo thread molto incuriosito dai rumors sulla nuova gen di vga ati...e mi sto intrippando!
Il problema per chi non ha seguito il 3d dall'inizio è che questo risulta praticamente inconsultabile! rumors su rumors e voci varie, indiscrezioni e dati certi tutti accavallati!

so che magari chiedo troppo, ma si potrebbe fare un briefing della situazione e delle ipotesi più accreditate nel post n.1 del 3d???
Anche POCHE RIGHE...

Altrimenti un utente che vuole partecipare alla discussione magari anche con domande e interventi, non sa da dove cominciare perché ormai ci sono oltre 200 pagine di post!

Grazie a tutti


purtroppo il problema è che ati è una tomba e tutti i rumors sono basati su supposizioni e molte volte su speculazioni. Infatti fino a 3gg fà navigavamo praticamente tutti nel buio più totale e ora con il sussegursi di notizie su un architettura MCM non si sa se sia solo aria fritta o realtà.

Foglia Morta
24-07-2009, 21:43
Qualcosa riguardo le DX11 il 24 Settembre ( detto da nApoleon di Chiphell ) , potrebbe essere la presentazione di qualche scheda

Matalf
24-07-2009, 21:58
Qualcosa riguardo le DX11 il 24 Settembre ( detto da nApoleon di Chiphell ) , potrebbe essere la presentazione di qualche scheda

:sbav:

Mtty
24-07-2009, 22:12
Non so se sia il posto più adatto a chiedere,ma visto che si parla di news ati...

"Ultimamente" sono comparsi i primi monitor adatti alla visione 3D, con i relativi occhialini della nVidia. Ati, stà in qualche modo preparandosi a rispondere a nVidia con qualche tecnologia per le prossime gpu/driver video?

ghiltanas
25-07-2009, 00:33
Non so se sia il posto più adatto a chiedere,ma visto che si parla di news ati...

"Ultimamente" sono comparsi i primi monitor adatti alla visione 3D, con i relativi occhialini della nVidia. Ati, stà in qualche modo preparandosi a rispondere a nVidia con qualche tecnologia per le prossime gpu/driver video?

èun pò ot, cmq nn penso ci sia molto da rispondere, il 3d è ben lontano dall'affermarsi, senn addirittura diffondersi fra appossionati di nicchia...il che si traduce in guadagni esigui, quasi nulli, quindi per questo (ma nn solo cmq)credo ati nn abbia interesse in q
uesto ambito

Simedan1985
25-07-2009, 01:28
èun pò ot, cmq nn penso ci sia molto da rispondere, il 3d è ben lontano dall'affermarsi, senn addirittura diffondersi fra appossionati di nicchia...il che si traduce in guadagni esigui, quasi nulli, quindi per questo (ma nn solo cmq)credo ati nn abbia interesse in q
uesto ambito

anche io ci credo poco a sto fatto del 3d:fagiano: ....meglio sognatre il fotorealismo:p

Free Gordon
25-07-2009, 12:30
:D
http://www.brightsideofnews.com/ThumbL.aspx?file=/Data/2009_7_21/Why-DirectX-11-will-save-the-video-card-industry-again-and-why-you-dont-care\MSFT_DX11_Faces_215.jpg

Cioè, nel passaggio dalle dx10 alle 11, l'uomo passa da nero a bianco.. :asd:

Athlon 64 3000+
25-07-2009, 12:42
se RV870 venisse presentato alla stampa il 24 settembre sarebbe ottimo cosi finalmente almeno si saprà tutto sulle nuove gpu dx11 AMD.

Free Gordon
25-07-2009, 12:45
"news" estrapolata dai commenti ai risultati finanziari, unicà novità gpu mobile DX11 nella prima metà del 2010:
http://www.xbitlabs.com/news/video/display/20090722155600_ATI_Expects_DirectX_11_Graphics_Lineup_to_Ramp_Up_Fast.html
ATI Expects DirectX 11 Graphics Lineup to Ramp Up Fast


Per cui ATI giungerà, dopo diversi anni, PRIMA di Nvidia sul nuovo model shader...
Questa cosa era successa solo con R300, uscito prima di NV30...
Quello che non capisco è perchè giunga così velocemente sui 40nm, dato che Yoss ha sempre detto che non conviene provare una nuova architettura con il nuovo PP, ma prima fare uno shrink della passata archi e poi fare il salto con la nuova.
Questo mi fa pensare al fatto che il progetto R600 (da cui poi Rv670 e Rv770) era effettivamente un progetto a LUNGO termine (ma del resto per ATI spesso è stato così) e che la prossima architettura dx11 sarà un semplice AFFINAMENTO della passata dx10.1 senza stravolgerla, sennò non farebbero uscire Rv870 subito a 40nm.........

Matalf
25-07-2009, 12:53
Per cui ATI giungerà, dopo diversi anni, PRIMA di Nvidia sul nuovo model shader...
Questa cosa era successa solo con R300, uscito prima di NV30...
Quello che non capisco è perchè giunga così velocemente sui 40nm, dato che Yoss ha sempre detto che non conviene provare una nuova architettura con il nuovo PP, ma prima fare uno shrink della passata archi e poi fare il salto con la nuova.
Questo mi fa pensare al fatto che il progetto R600 (da cui poi Rv670 e Rv770) era effettivamente un progetto a LUNGO termine (ma del resto per ATI spesso è stato così) e che la prossima architettura dx11 sarà un semplice AFFINAMENTO della passata dx10.1 senza stravolgerla, sennò non farebbero uscire Rv870 subito a 40nm.........


a parte che la HD4770 è gia a 40nm se non mi sbaglio gli ultimi chip usciti per fascia mobile, ovvero le 4870 e 4850 mobile, sono gia effettivamente a 40nm



Probabilmente questi "piccoli" test sono bastati per confermare l'efficacia di questo processo produttivo

Free Gordon
25-07-2009, 13:25
a parte che la HD4770 è gia a 40nm se non mi sbaglio gli ultimi chip usciti per fascia mobile, ovvero le 4870 e 4850 mobile, sono gia effettivamente a 40nm
Probabilmente questi "piccoli" test sono bastati per confermare l'efficacia di questo processo produttivo


Ultimamente non seguo molto, non sapevo che la 4770 fosse già a 40nm.. :eek: ottimo!
Bene bene, allora vuol dire che qualche prova è già in atto da diversi mesi...

(per il mobile invece non credo conti, sono GPU a basso consumo e i risultati che danno con un certo pp non è detto che valgano anche per la fascia desktop -con chip più grossi e frequenze più alte-).

davyjones
25-07-2009, 13:40
Beh volendo ricapitolare un po' la situazione, cosa si sa e quali sono le ipotesi più accreditate?
spero non sia una mission impossible:fagiano:

Matalf
25-07-2009, 13:52
Beh volendo ricapitolare un po' la situazione, cosa si sa e quali sono le ipotesi più accreditate?
spero non sia una mission impossible:fagiano:

come data di presentazione si parla di 24 settembre


come architettura da un paio di giorni si parla di MCM( due die nello stesso package, più o meno come i C2Q per intenderci)

e si parla di 1600-1920sp composti da due chip ( Rv840 ) 800-960sp e di un bus a 256-384(anche se poco acreditato)

davyjones
25-07-2009, 14:05
come architettura da un paio di giorni si parla di MCM( due die nello stesso package, più o meno come i C2Q per intenderci)

Una sorta di gpu dual core quindi...qui le domande sorgerebbero a bizeffe:D uso della memoria e relativo controller? come sono connessi tra loro?


e si parla di 1600-1920sp composti da due chip ( Rv840 ) 800-960sp e di un bus a 256-384(anche se poco acreditato)

un momento: quindi l'ipotetica scheda rv870 sarebbe formata dall'accoppiamento di due rv840? come si differenzierebbe l'ipotetica 5870 dalla 5850?

E se il singolo chip ha gli stessi sp della gen. rv770, in cosa si differenzierebbe? Quanto sarebbe grande? Si conoscono i miglioramenti dell'architettura?

Capisco che rispondere a queste domande possa portare a fare speculazioni "vaporose"...
Ciao e grazie

Matalf
25-07-2009, 14:17
Una sorta di gpu dual core quindi...qui le domande sorgerebbero a bizeffe:D uso della memoria e relativo controller? come sono connessi tra loro?


bella domanda pecato per ora non abbia risposta.

Potrebbe essere il Sideport( ora assolutamnte inutilizzato)
o un Controller di memoria appositamente studiato :boh:



un momento: quindi l'ipotetica scheda rv870 sarebbe formata dall'accoppiamento di due rv840? come si differenzierebbe l'ipotetica 5870 dalla 5850?


sicuramente per le frequenze, poi per il resto qualcosa si inventeranno


E se il singolo chip ha gli stessi sp della gen. rv770, in cosa si differenzierebbe? Quanto sarebbe grande? Si conoscono i miglioramenti dell'architettura?


pensa alle HD4670 (rv730) hanno gli stessi sp e le prestazioni delle 3870 (rv670), ma subisce meno l'influenza dei filtri



Capisco che rispondere a queste domande possa portare a fare speculazioni "vaporose"...
Ciao e grazie


tutto quello che ho scritto infatti sono mie considerazioni nulla di più

davyjones
25-07-2009, 15:22
Di preciso che cos'è qesto sideport?
Oltretutto, è già implementato nella serie 4000 o sbaglio?

Matalf
25-07-2009, 15:36
Di preciso che cos'è qesto sideport?
Oltretutto, è già implementato nella serie 4000 o sbaglio?

il Sideport è un chippino installato sulle x2 che dovrebbe permettere un migliore collegamento tra le GPU, ma che fino ad ora è rimasto inutilizzato.

davyjones
25-07-2009, 15:40
Grossa confusione ancora, insomma...
E comunque, vista la quantità di carne al fuoco, credo che Ati faccia benissimo ad essere una tomba.
La posta in gioco è altissima, c'è da riconfermare il successo della serie 4000 (e tutti sappiamo quanto siano difficili i bis) e Nvidia che tra ritardi rumors promette l'ennesimo padellone molto potente...

Ale985
25-07-2009, 15:43
il Sideport è un chippino installato sulle x2 che dovrebbe permettere un migliore collegamento tra le GPU, ma che fino ad ora è rimasto inutilizzato.

Perdona la domanda banale: come mai questo sideport non è stato utilizzato nelle dual gpu? Che problematiche avrebbe potuto dare?

Matalf
25-07-2009, 15:48
sinceramente non so. Probabilmente o non portava i miglioramenti sperati o semplicemente perchè è troppo complesso da gestire via driver

davyjones
25-07-2009, 16:09
troppo complesso da gestire via driver

Domanda da newbie: come si gestisce altrimenti? Lo chiedo perché no lo so...

E se invece fosse stato inserito per collaudo?

-El-
25-07-2009, 16:14
Domanda da newbie: come si gestisce altrimenti? Lo chiedo perché no lo so...

E se invece fosse stato inserito per collaudo?

L'altra alternativa è gestirlo via hardware.. ma di sicuro non è semplice.

Che sia stato inserito per test poi poi utilizzarlo in altre revision è dato per scontato da tutti, ma all'epoca avevano detto che l'avrebbero attivato "quando necessario".
Quindi a detta loro non è stato attivato perchè non serve..

davyjones
25-07-2009, 16:17
E in cosa consisterebbe una gestione hardware?
Set di istruzioni implementate? controller?
Non mi prendete per matto, sono un apppassionato e non certo ingegnere elettronico:fagiano:

Ale985
25-07-2009, 16:39
Ragazzi scusate, con queste nuove vga, avere una scheda madre con slot video pci-e 2.0 comporta dei vantaggi sensibili? oppure le differenze sono irrisorie come per le 4800.

Matalf
25-07-2009, 16:47
Ragazzi scusate, con queste nuove vga, avere una scheda madre con slot video pci-e 2.0 comporta dei vantaggi sensibili? oppure le differenze sono irrisorie come per le 4800.


non credo ci siano grandi differenze.


in giro ci sono troppe PCI-eX 16x per poter "abbandonare" il formato



le differenze si sentiranno come ora nel CF/SLI ;)

-El-
25-07-2009, 16:47
E in cosa consisterebbe una gestione hardware?
Set di istruzioni implementate? controller?
Non mi prendete per matto, sono un apppassionato e non certo ingegnere elettronico:fagiano:

Neanche io sono un ingegnere elettronico ma solo un appassionato!

Da quel che so si tratta di implementare della logica tale da dividere il lavoro tra le gpu.

Le moderne gpu, in realtà, sono già "multicore", nel senso che sono costituite da più unità di calcolo (dette SPU) che, nel caso di rv770, sono organizzate in array identici tra loro e indipendenti(Stream Processor-SP).
A monte un Dispatch Processor(DP) si occupa di dividere il lavoro tra i "core".

Si tratterebbe, dunque, di creare qualcosa di simile, che gestisca in hardware l'utilizzo delle gpu, così come il DP fa con gli SP.

Rimane tuttavia il dubbio su dove collocare tale unità logica, dato che i core dovrebbero essere identici (e quindi l'unità logica replicata), sprecando meno superficie possibile (chip grandi COSTANO).

Sarebbe poi necessario trovare un bus di collegamento ampio abbastanza da consentire di non notare degradi prestazionali(non deve fare da collo di bottiglia). Per questo è stata implementata, si pensa, la sideport.

Si potrebbe anche fare in modo che la seconda gpu sia collegata alla prima come se fosse una fermata del memory controller..

In ogni caso sarebbe interessante, se Yossarian ci degnasse della sua presenza, sapere la sua opinione (anche se già si è più volte espresso in merito)

Matalf
25-07-2009, 16:55
infatti il SidePort non dovrebbe essere null'altro che un hypertrasport esterno

Ale985
25-07-2009, 17:04
Le moderne gpu, in realtà, sono già "multicore", nel senso che sono costituite da più unità di calcolo (dette SPU) che, nel caso di rv770, sono organizzate in array identici tra loro e indipendenti(Stream Processor-SP).
A monte un Dispatch Processor(DP) si occupa di dividere il lavoro tra i "core".

Si tratterebbe, dunque, di creare qualcosa di simile, che gestisca in hardware l'utilizzo delle gpu, così come il DP fa con gli SP.


COlgo l'occasione per chiedere un chiarimento: nelle specifiche delle schede ati le frequenze della gpu e shader sono unificati e quindi sono le medesime. Le pipeline 3D si occupano di eseguire i conti di pixel, vertex e geometry; la gpu in se di cosa si occupa allora?


Rimane tuttavia il dubbio su dove collocare tale unità logica, dato che i core dovrebbero essere identici (e quindi l'unità logica replicata), sprecando meno superficie possibile (chip grandi COSTANO).

Sarebbe poi necessario trovare un bus di collegamento ampio abbastanza da consentire di non notare degradi prestazionali(non deve fare da collo di bottiglia). Per questo è stata implementata, si pensa, la sideport.

Si potrebbe anche fare in modo che la seconda gpu sia collegata alla prima come se fosse una fermata del memory controller..

Non mi è chiara questa frase


In ogni caso sarebbe interessante, se Yossarian ci degnasse della sua presenza, sapere la sua opinione (anche se già si è più volte espresso in merito)
:ave:

-El-
25-07-2009, 17:42
COlgo l'occasione per chiedere un chiarimento: nelle specifiche delle schede ati le frequenze della gpu e shader sono unificati e quindi sono le medesime. Le pipeline 3D si occupano di eseguire i conti di pixel, vertex e geometry; la gpu in se di cosa si occupa allora?



Non mi è chiara questa frase


:ave:

L'Unified Shader Core (USC-come viene chiamato nei documenti AMD) è parte integrante della gpu, che è composta anche da un Setup engine (a monte dello shader - gestisce le istruzioni, il tassellatore, i vertex assembler, geometry assembler e interpolatore) e un Render back-ends (a valle- contiene le ROPs se non ricordo male). Il tutto è poi collegato attraverso un hub (è presente un crossbar interno nello shader) alle porte esterne (sideport-pci express) e agli altri blocchi (UVD, display controller).

Mentre in g80 e derivati lo shader lavora a frequenza superiore al resto (tmu, rops,mc) per non essere un collo di bottiglia (non è , come nell'architettura ati, capace di effettuare 5 operazioni per ogni spu) in rv770 il clock è unico.

Riguardo all'ultima mia frase era solo un pensiero su come rendere la seconda gpu schiava della prima.. collegarla attraverso quel che rimane del ringbus come se fosse una fermata dello stesso (il ringbus interno è a 512 bit, mica lento).. ma non credo sia possibile

Bastoner
25-07-2009, 19:16
Se veramente ATI tirerà fuori una multigpu......mi sembra una cosa fantastica. :D
Si tratterebbe di una vera rivoluzione. Finalmente approcci scalabili ed efficienti, al contrario del multigpu che conosciamo oggi. Spero solo che riescano a tenere sotto controllo consumi e calore.

davyjones
25-07-2009, 20:13
Volendo fare un paragone passando da configurazioni in cui 2 gpu sono collegate tramite una sorta di crossfire fatto su un singolo pcb a configurazioni in cui le 2 gpu sono direttamente interconnesse, dovremmo avere un salto paragonabile a quello che si è avuto col passaggio da pentiumD (2 cpu connesse tramite fsb) a core2 duo (dual core nativi con cache condivisa)...va bene che l'arch. del pentium D faceva cag.are a prescindere:D
Ora non so se tecnicamente ho detto una boiata pazzesca, ma così da semplice e ignorantissimo appassionato mi sembra di vedere questa cosa:fagiano:

okorop
25-07-2009, 20:21
be non sarebbe male se fosse veramente cosi :) e per nvidia sarebbero caxxi amari......

Matalf
25-07-2009, 20:34
Volendo fare un paragone passando da configurazioni in cui 2 gpu sono collegate tramite una sorta di crossfire fatto su un singolo pcb a configurazioni in cui le 2 gpu sono direttamente interconnesse, dovremmo avere un salto paragonabile a quello che si è avuto col passaggio da pentiumD (2 cpu connesse tramite fsb) a core2 duo (dual core nativi con cache condivisa)...va bene che l'arch. del pentium D faceva cag.are a prescindere:D
Ora non so se tecnicamente ho detto una boiata pazzesca, ma così da semplice e ignorantissimo appassionato mi sembra di vedere questa cosa:fagiano:

purtroppo il paragone non sta in piedi i pentimD sono su architettura del Pentim 4 (che faceva cagare) mentre i C2D sono su architettura dei pentim M ( che filavano che è un piacere :D)



Se il MCM funziona a dovere e la distribuzione dei carichi è ben eseguita la grande paralelizabilità del carico su GPU potrebbe portare al raddoppio esatto delle prestazioni rispetto al singolo Chip

ovvero potremmo avere dei Rv870 che rullano ben più di un CF di 4890

davyjones
25-07-2009, 20:38
purtroppo il paragone non sta in piedi i pentimD sono su architettura del Pentim 4 (che faceva cagare) mentre i C2D sono su architettura dei pentim M ( che filavano che è un piacere :D)



Se il MCM funziona a dovere e la distribuzione dei carichi è ben eseguita la grande paralelizabilità del carico su GPU potrebbe portare al raddoppio esatto delle prestazioni rispetto al singolo Chip

ovvero potremmo avere dei Rv870 che rullano ben più di un CF di 4890

Infatti io ho specificato "a prescindere dal fatto che l'architettura del pentium d era vergognosa":D

Però il senso del paragone che voglio fare è proprio il fatto che si avrebbe un dual gpu nativo piuttosto che un xfire mascherato dal fatto che si hanno 2 gpu su un singolo pcb...

Ale985
25-07-2009, 20:38
purtroppo il paragone non sta in piedi i pentimD sono su architettura del Pentim 4 (che faceva cagare) mentre i C2D sono su architettura dei pentim M ( che filavano che è un piacere :D)



Se il MCM funziona a dovere e la distribuzione dei carichi è ben eseguita la grande paralelizabilità del carico su GPU potrebbe portare al raddoppio esatto delle prestazioni rispetto al singolo Chip
ovvero potremmo avere dei Rv870 che rullano ben più di un CF di 4890

Questo indipendentemente dall'ottimizzazione dei giochi ai dual gpu?, giacchè non è un dual gpu fisicamente distinto ma di due gpu core nello stesso package

davyjones
25-07-2009, 20:40
Questo indipendentemente dall'ottimizzazione dei giochi ai dual gpu?, giacchè non è un dual gpu fisicamente distinto ma di due gpu core nello stesso package

Suppongo di sì, giacché la ripartizione delle operazioni avverrebbe in maniera del tutto differente...

Ale985
25-07-2009, 20:54
Suppongo di sì, giacché la ripartizione delle operazioni avverrebbe in maniera del tutto differente...

Se il controllo dello smistamento del carico è a livello hardware, le istruzioni da renderizzare dovrebbero essere gestiti dai controller della scheda video e non dal tipo di codice del motore grafico, o sbaglio?

HackaB321
25-07-2009, 23:17
Se il controllo dello smistamento del carico è a livello hardware, le istruzioni da renderizzare dovrebbero essere gestiti dai controller della scheda video e non dal tipo di codice del motore grafico, o sbaglio?

Una gpu multicore sarebbe molto meno dipendente dai driver e dal codice che deve eseguire rispetto ad un multigpu attuale dove la ripartizione del carico la fanno i driver.
I problemi sono altri: la complessita del Dp a livello di core e soprattutto l'eliminazione delle ridondanze tra core: ad esempio le cache dovrebbe essere unificate o separate? e le TMU e le Rops? Unificarle elimina le ridondanze e rende le gpu più piccole ed efficienti ma aumenta la complessità dell'architettura( rendendo quindi inutile il motivo per cui invece di auemntare i cluster nella stessa gpu si aumenta il numero di core nella gpu)
In più il dp a livello di core dovrebbe essere riprogettato perchè diverso da quello a livello di core (credo dovrebbe limitarsi ad esempio alla ripartizione solo dei thread e non anche a sequenzare il flusso di istruzioni interne ad ogni thread)

Loll007
26-07-2009, 00:54
è un pò OT ma tempo fa si era parlato del mirabolante chip lucid che sembrava dover essere la svolta del multi gpu e prometteva incrementi di prestazioni considerevoli con gpu anche di architettura differente....che fine ha fatto?!

eXeS
26-07-2009, 10:32
Questo indipendentemente dall'ottimizzazione dei giochi ai dual gpu?, giacchè non è un dual gpu fisicamente distinto ma di due gpu core nello stesso package

Se l'approccio sarà analogo a quello usato da AMD/Intel nelle attuali cpu il supporto lato driver, e la scrittura di codice AFR friendly da parte dei programmatori, sarà ancora richiesto.

Oggi se un'applicazione non è multi-thread, che l'hardware sottostante sia composto da n-processori ad unico core o da 1 processore ad n-core, è indifferente, l'applicazione non scala, punto :)

ghiltanas
26-07-2009, 10:47
be non sarebbe male se fosse veramente cosi :) e per nvidia sarebbero caxxi amari......

anche in virtù del probabile ritardo del lancio di gt300...però ati deve approfittarne, anche e soprattutto sul lato marketing, sponsorizzando per esempio i primi titoli che usufruiranno delle dx11

Matalf
26-07-2009, 10:50
Se l'approccio sarà analogo a quello usato da AMD/Intel nelle attuali cpu il supporto lato driver, e la scrittura di codice AFR friendly da parte dei programmatori, sarà ancora richiesto.

Oggi se un'applicazione non è multi-thread, che l'hardware sottostante sia composto da n-processori ad unico core, che da 1 processore ad n-core, è indifferente, l'applicazione non scala, punto :)

questo non è un problema un immagine puo essere sudduvisa in un numero di Thread uguale a quello dei pixel che la compongono.

infatti non si puo parlare di GPU multicore, le GPU sono sempre state multicore, qui si parla più di modularità ovvero di possibilità da parte di Ati di assemblare GPU piu potenti semplicemente collecando tra loro pezzi piu piccoli.


Per fare un esempio mi viene in mente l'ikea, se hai bisogno di un armadio a 2 ante comprila singola struttura da 2 ante, se ha bisogno di 4 ne compri due uguali e li avviti in sieme , se te ne serve uno a 6 ne prendi tre e così via.

Poi il problema saràpoi solo distribure gli indumenti al suo inteno.


Nel multy GPU invece era come avere un armadio nella casa al mare e uno nella casa in montagna. Oltre ad essere più complessa la distribuzione degli abiti e l'accesso ad essi, bisogna avere dei doppioni perchè al mare puo fare freddo come in montagna caldo ;)

raffaele1978
26-07-2009, 10:50
Quali dovrebbero essere i nuovi modelli di gpu ati? E quando dovrebbero essere disponibili?

okorop
26-07-2009, 11:55
anche in virtù del probabile ritardo del lancio di gt300...però ati deve approfittarne, anche e soprattutto sul lato marketing, sponsorizzando per esempio i primi titoli che usufruiranno delle dx11

Mi auguro che finalmente abbia capito che è indispensabile fare tale politica.....magari anche introducendo un marchio proprio da mettere sui giochi

davyjones
26-07-2009, 12:10
Quali dovrebbero essere i nuovi modelli di gpu ati? E quando dovrebbero essere disponibili?

Si parla di fine settembre...

La lineup dovrebbe andare a ricalcare quella della serie 4000:

Entry level sotto i 70€:
-5350
-5550

medio bassa sotto i 100€:
-5650
-5670

fascia performance 150-180€
-5850

fascia alta >200€
-5870

fascia enthusiast >350€
-5870 Xnonsoccosa...

Futura12
26-07-2009, 12:22
Magari trovassimo una nuova 4850 (5850) con quelle prestazioni gia da subito a 150€ io ci spero...ma dubito molto

okorop
26-07-2009, 12:36
Magari trovassimo una nuova 4850 (5850) con quelle prestazioni gia da subito a 150€ io ci spero...ma dubito molto

schede video come la 4850 ce ne sono poche per prezzo qualità prestazioni......

Ale985
26-07-2009, 12:46
fascia alta >200€
-5870


Ma la 5870 sarà una vga sfruttabile sono a 1920x1080 oppure anche a 1680x1050? (come lo è la 4870 che sta a cavallo fra le due risoluzioni)

Matalf
26-07-2009, 12:50
Ma la 5870 sarà una vga sfruttabile sono a 1920x1080 oppure anche a 1680x1050? (come lo è la 4870 che sta a cavallo fra le due risoluzioni)

se è effettivamente quello che si prospetta potrebbe essere un VGA da 2500x1600 :sofico:

okorop
26-07-2009, 12:51
se è effettivamente quello che si prospetta potrebbe essere un VGA da 2500x1600 :sofico:

ma lol
speriamo in bene.....io vado di 5870x4 :sofico:

Ale985
26-07-2009, 12:53
se è effettivamente quello che si prospetta potrebbe essere un VGA da 2500x1600 :sofico:

....:sbavvv:
e allora la 5870X2 o X4 che sia la usi al cinema ??????? :D :D

Matalf
26-07-2009, 12:56
ma lol
speriamo in bene.....io vado di 5870x4 :sofico:

:asd: se riesco mi unisco anchio :asd:

okorop
26-07-2009, 13:02
:asd: se riesco mi unisco anchio :asd:
io la prendo perchè vendo uno dei mie reni :asd:; ovviamente se la compro deve essere la migliore vga del mercato e costare meno di 600 euro senno se la tengono

Matalf
26-07-2009, 13:04
:asd::asd::asd:


sinceramente preferisco fare un cross di Toxic

sperando di non dover vendere il :ciapet: per pagarmelo :asd:

kinotto88
26-07-2009, 13:05
....:sbavvv:
e allora la 5870X2 o X4 che sia la usi al cinema ??????? :D :D

perchè no..:asd:

Athlon 64 3000+
26-07-2009, 13:11
Chissa se la eventuale HD 5870 andrà veloce quanto la HD 4870x2 o addirittura di più.

Simedan1985
26-07-2009, 13:36
Chissa se la eventuale HD 5870 andrà veloce quanto la HD 4870x2 o addirittura di più.

Stavo appena x scrivere che io mmi aspetti che vada minimo un 20% piu veloce e che la x2 un 60% minimo della single ....cmq il salto dalla 3870 alla 4870 ci sarebbe gia abbondantemente da accontentarsi:D

Foglia Morta
26-07-2009, 14:36
copia-incolla da un altro forum

tradotto con google dal tedesco all'inglese, praticamente Manhattan dovrebbe essere il nome della famiglia delle gpu mobile ( come Evergreen per le desktop ) e Broadway , Madison e Park a rappresentare le varie fasce

The Source wrote on Wednesday, July 22, 2009 @ 21:05:

Manhattan mobile:

Broadway XT DDR5 -> HD5870
Broadway Pro -> HD5850
Broadway LP -> HD5830
Madison Pro DDR5 -> HD5750
Madison DDR3 XT -> HD5730
Madison LP / Pro -> HD5650
Park XT -> HD5470
Park Pro -> HD5450
Park LP -> HD5430

____

Added some more info:

AMD cliamt Manhattan that better performance per watt and about 135 to 145% faster compared to the M9x series. 40nm, DX11 With Power Xpress, SG Switching, XGP support and pin to pin compatible with the M9x designs.

Broadway -> Ramp E / Aug, Oct MP
Madison -> Ramp E / Aug, Nov MP
Park -> Ramp E / Nov, Nov MP

Now we hope that 40nm can deliver what we expect

Broadway XT -> HD5870
GDDR5
45W-60W
M2

Broadway Pro -> HD5850
GDDR5
30W-40W
M2

Broadway LP -> HD5830
(G) DDR3
29W
128bit
M2

Madison Pro (or XT .. not sure) -> HD5750
GDDR5
20-30W
M2

Madison XT (or Pro .... not sure) -> HD5730
(G) DDR3/GDDR5
20-25W
M2

Madison LP / Pro -> HD5650
(G) DDR3
15-20W
128-bit
M2

Park XT -> HD5470
GDDR5
12-15W
S3/M2

Park Pro -> HD5450
(G) DDR3
10-12W
S3/M2

Park LP -> HD5430
(G) DDR3
<8W
S3

michelgaetano
26-07-2009, 15:08
Ma la 5870 sarà una vga sfruttabile sono a 1920x1080 oppure anche a 1680x1050? (come lo è la 4870 che sta a cavallo fra le due risoluzioni)

Direi tranquillamente 2560, a 1920 c'è già la 4890.

Voglio dire, l'ipotetica 5850 dovrebbe essere almeno almeno ai livelli di 4870 e gtx 260. Altrimenti sarebbe inutile.

Matalf
26-07-2009, 15:11
Direi tranquillamente 2560, a 1920 c'è già la 4890.

Voglio dire, l'ipotetica 5850 dovrebbe essere almeno almeno ai livelli di 4870 e gtx 260. Altrimenti sarebbe inutile.

come gia detto se è veramente un MCM da 1600-1920sp la 5850 e capace ce va quasi quanto la 4870x2 se non di più e la 5870 più di un CF di 4890


:sperem:

Marko91
26-07-2009, 15:38
135% ? :eek:

AMD powaaaarrrr :oink:

A questo punto, 1920sp non sembrano troppo esagerati. :p

Matalf
26-07-2009, 16:15
135% ? :eek:

AMD powaaaarrrr :oink:

A questo punto, 1920sp non sembrano troppo esagerati. :p

quella è la fascia mobile ;)


una 5870 mobile andra meno di una 4870 :asd:

michelgaetano
26-07-2009, 16:27
come gia detto se è veramente un MCM da 1600-1920sp la 5850 e capace ce va quasi quanto la 4870x2 se non di più e la 5870 più di un CF di 4890


:sperem:

Oddio magari... ma già se andasse quanto una 4890 a prezzo decente (sui 150) fa il botto.

Cambiando un po' discorso (ma rimanendo in tema al contempo): che dissipatore pensate monteranno? Vedremo altri aborti stile 4850? :(

okorop
26-07-2009, 17:22
135% ? :eek:

AMD powaaaarrrr :oink:

A questo punto, 1920sp non sembrano troppo esagerati. :p

altro che gt300 rv870 con 2000 sp spacca il mondo!!!!!!! con ben 4000 sp nella 5870x2 e 8000 nella 5870x4........

Ale985
26-07-2009, 17:24
Scusate ragazzi, qualcuno sa se ATi ha intenzione di mettere la gestione della fisica a livello di gpu con le prossime schede video ?

okorop
26-07-2009, 17:25
Scusate ragazzi, qualcuno sa se ATi ha intenzione di mettere la gestione della fisica a livello di gpu con le prossime schede video ?
dato che il supporto physyx passerà allo standard open cl il supporto alla fisica lo avranno le nuove ati :)

Matalf
26-07-2009, 17:26
Scusate ragazzi, qualcuno sa se ATi ha intenzione di mettere la gestione della fisica a livello di gpu con le prossime schede video ?

no a meno che nvidia non converta l'inutile Physx a OpenCL




@: orkorop ma non era solo cuda a passare alle OPenCL?

okorop
26-07-2009, 17:32
no a meno che nvidia non converta l'inutile Physx a OpenCL




@: orkorop ma non era solo cuda a passare alle OPenCL?
le librerie physx son gestite tramite cuda per non dare il supporto alla concorrente, se cuda migrasse a open cl sia l'accellerazione in ambito server sia pysyx passerebbe anche nelle mani di intel e ati cosa che nvidia non vuole assolutamente......quindi di sta cosa dubito fortemente, solo physx passa a open cl non cuda interamente :)
qui la news http://www.macitynet.it/macity/aA37294/nvidia_portera_il_motore_physx_su_opencl.shtml

Matalf
26-07-2009, 17:41
io sono per la totale liberalizazione di Cuda, anche perche sinceramente di PhysXmi frega proprio poco :asd:

Foglia Morta
26-07-2009, 19:26
http://www.nordichardware.com/news,9672.html

RV8xx yields are better than RV740

As you may have heard AMD is planning a launch in September, with a pre-launch event on September 10th. While we do have a bunch of code names to ponder about, the actual names of the cards and their specifications remains clouded. AMD has been extremely careful to make sure no leaks happen before the launch, which is perhaps to prefer from the previous strategy of planting faulty information everywhere.

Either way, sources close to AMD confirms that the yields at TSMC have improved and are better than with RV740. Hopefully this means availability won't be an issue. We are digging for more.

ghiltanas
26-07-2009, 19:39
per quanto riguardo la potenza bruta, se con la prossima generazione di giochi vogliono veramente fare un salto in avanti per quanto riguarda realismo grafico e fisico, bisogno che l'hardware gli stia dietro, altrimenti sono dolori

ghiltanas
26-07-2009, 19:40
http://www.nordichardware.com/news,9672.html

RV8xx yields are better than RV740

As you may have heard AMD is planning a launch in September, with a pre-launch event on September 10th. While we do have a bunch of code names to ponder about, the actual names of the cards and their specifications remains clouded. AMD has been extremely careful to make sure no leaks happen before the launch, which is perhaps to prefer from the previous strategy of planting faulty information everywhere.

Either way, sources close to AMD confirms that the yields at TSMC have improved and are better than with RV740. Hopefully this means availability won't be an issue. We are digging for more.

ottimo, cosi a ottobre se va bene faccio l'accoppiata i7 + rv870 :sofico:

Andrea deluxe
26-07-2009, 19:41
dato che il supporto physyx passerà allo standard open cl il supporto alla fisica lo avranno le nuove ati :)

non ci credo, ma spero che sia vero.

Futura12
26-07-2009, 19:55
Oddio magari... ma già se andasse quanto una 4890 a prezzo decente (sui 150) fa il botto.

Cambiando un po' discorso (ma rimanendo in tema al contempo): che dissipatore pensate monteranno? Vedremo altri aborti stile 4850? :(

Dubito che vada come una 4890....gia c'è lei e costa solo 160 euro.

Matalf
26-07-2009, 20:07
Dubito che vada come una 4890....gia c'è lei e costa solo 160 euro.

probabilmente andra ben di più ma al lancio costerà almeno 200€ ;)

michelgaetano
26-07-2009, 20:14
Dubito che vada come una 4890....gia c'è lei e costa solo 160 euro.

Ma se va a meno, visto il prezzo che deve avere... a cosa servirà? Directx 11 solo? Se davvero offrirà questo tutti a prendersi HD 4870 a 100 euro scarsi e 4890 a poco sopra, e alle directx ci si pensa quando serve :D
Imho un certo boost prestazionale deve esserci...

okorop
26-07-2009, 20:46
Ma se va a meno, visto il prezzo che deve avere... a cosa servirà? Directx 11 solo? Se davvero offrirà questo tutti a prendersi HD 4870 a 100 euro scarsi e 4890 a poco sopra, e alle directx ci si pensa quando serve :D
Imho un certo boost prestazionale deve esserci...

ma io spero in uno scenario del genere:
5850 20 % in piu della 4870x2
5870 40% in piu della 4870x2
5870x2 80% in piu della 4870x2

Matalf
26-07-2009, 20:48
ma io spero in uno scenario del genere:
5850=4870x2
5870 30% in piu della 4870x2
5870x2 50% in piu della 5870

Quoto ma ho fatto una piccola modifica :D

okorop
26-07-2009, 20:49
Quoto ma ho fatto una piccola modifica :D
e sarebbe bello :sofico:

Matalf
26-07-2009, 20:54
e sarebbe bello :sofico:

bhe più o meno e quella a differenza di prestazioni che passa tra la 4870 e la 4870x2 ( quando funziona a dovere e su risoluzioni FullHD e oltre ) quindi non vedo perchè la nuova generazione dovrebbe fere peggio

okorop
26-07-2009, 20:56
bhe più o meno e quella a differenza di prestazioni che passa tra la 4870 e la 4870x2 ( quando funziona a dovere e su risoluzioni FullHD e oltre ) quindi non vedo perchè la nuova generazione dovrebbe fere peggio

si si hai ragione infatti ho anche editato......per quanto riguarda la notizia del 10 settembre è una gran cosa, e finalmente amd potrebbe mettere in vendita una configurazione completamente nuova ed assai competitiva per gaming: phenom II 965 e forse 975 con rv870 accompagnata dal nuovo sb

michelgaetano
26-07-2009, 21:23
In realtà per gli standard attuali un X4 sarebbe già abbastanza se sfruttato a dovere dal software, ma vabeh.

Ad ogni modo a mio avviso quelle percentuali che avete indicato mi sembrano davvero troppo ottimistiche. Io già farei i salti di gioia se potessi avere una scheda dalle prestazioni pari o solo leggermente inferiori a quelle di una 4870X2 (lì dove sfruttata a dovere, si intende) con una scheda da 150 €.

Matalf
26-07-2009, 21:45
dai non essere pessimista :asd:

in fondo ati il miracolo lo ha gia fatto e si ripetera ancora


:sperem:


P.s: qualcuno si ricorda quanto ci ha messo Sapphire a far uscire la Toxic?

A.L.M.
26-07-2009, 22:01
quella è la fascia mobile ;)


una 5870 mobile andra meno di una 4870 :asd:

Ma anche no... ;)

Già oggi una Mobility HD4870 va più di una HD4850.

Considerando che già oggi la Mobility HD4870 è la scheda single più veloce per portatili, una vga che vada il +35-40% (credo che il 135-140 vada interpretato così, non +135%) in più è sui livelli di una GTX285, il che direi che sarebbe strepitoso, considerando il TDP di 60W.

Direi che sarò pronto per cambiare portatile quando usciranno dei 15.4" con le Mobility HD57xx e i nuovi core i5-i7 mobile. :sofico:

michelgaetano
26-07-2009, 22:04
Direi che sarò pronto per cambiare portatile quando usciranno dei 15.4" con le Mobility HD57xx e i nuovi core i5-i7 mobile. :sofico:

Chiamarlo portatile sembrerà un insulto :D

RaZoR93
26-07-2009, 22:25
ma io spero in uno scenario del genere:
5850 20 % in piu della 4870x2
5870 40% in piu della 4870x2
5870x2 80% in piu della 4870x2Magari fosse così... 5870 :sbav:

Futura12
26-07-2009, 22:28
Magari fosse così... 5870 :sbav:

ma anche 5850 se andasse davvero cosi veloce,chissene sbatte del 20% della 5870 che costerà all'uscita sicuramente sui 300 euro. (se contiamo che ora una 285GTX costa 280€...e avrà strada liscia con i prezzi almeno finche non se ne esce pure Nvidia con schede nuove)

d.lo
26-07-2009, 23:37
In realtà per gli standard attuali un X4 sarebbe già abbastanza se sfruttato a dovere dal software, ma vabeh.

Ad ogni modo a mio avviso quelle percentuali che avete indicato mi sembrano davvero troppo ottimistiche. Io già farei i salti di gioia se potessi avere una scheda dalle prestazioni pari o solo leggermente inferiori a quelle di una 4870X2 (lì dove sfruttata a dovere, si intende) con una scheda da 150 €.

non credo sia cosi impossibile se fai due conti viene fuori che già ora con 250 puoi comprarti due 4870 e metterle in cross ottenendo prestazioni eguali(teoricamente escludendo i problemi di driver) a quelli di una 4870x2...

d.lo
26-07-2009, 23:41
Ma anche no... ;)

Già oggi una Mobility HD4870 va più di una HD4850.

Considerando che già oggi la Mobility HD4870 è la scheda single più veloce per portatili, una vga che vada il +35-40% (credo che il 135-140 vada interpretato così, non +135%) in più è sui livelli di una GTX285, il che direi che sarebbe strepitoso, considerando il TDP di 60W.

Direi che sarò pronto per cambiare portatile quando usciranno dei 15.4" con le Mobility HD57xx e i nuovi core i5-i7 mobile. :sofico:

direi che sarebbe il primo portatile per gaming che comprerei... ci andiamo assieme a prenderlo? io ho pronti i piedi di porco
:ubriachi: :asd:

michelgaetano
26-07-2009, 23:44
non credo sia cosi impossibile se fai due conti viene fuori che già ora con 250 puoi comprarti due 4870 e metterle in cross ottenendo prestazioni eguali(teoricamente escludendo i problemi di driver) a quelli di una 4870x2...

Non hai tutti i torti, ma rimane il discorso della vga singola.

Io comunque ripeto, già valori uguali o superiori ad una 4890 con possibilmente meno calore e consumi a 150 € sarebbero un ottimo risultato.

d.lo
26-07-2009, 23:54
Non hai tutti i torti, ma rimane il discorso della vga singola.

Io comunque ripeto, già valori uguali o superiori ad una 4890 con possibilmente meno calore e consumi a 150 € sarebbero un ottimo risultato.

questo mi pare più che ovvio...sarebbè una buona occasione per farmi una seconda macchina a natale:D

comunque ora che futura 12 l'ha messo brutalmente in evidenza finche la concorrenza non sfornerà le sue schede ati potrà benissimo permettersi di vendere ad alto prezzo i nuovi mostri anche perchè credo proprio gli stia a cuore svuotare prima i magazzini dalle residue 4xxx... e la uscita più ritardata di nvidia permetterà ad ati di fare questo giochetto

quindi a meno che non si è ricchi finchè nvdia non farà uscire le controparti gt 300 ci sarà da sognarsele 5xxx
ed effettivamente suona meglio(per ati credo) che piazzare schede superiori a una 295...

certo però che se lo faresse è ovvio che ucciderebbe il mercato a colpi di bazooka...

michelgaetano
27-07-2009, 01:02
questo mi pare più che ovvio...sarebbè una buona occasione per farmi una seconda macchina a natale:D

comunque ora che futura 12 l'ha messo brutalmente in evidenza finche la concorrenza non sfornerà le sue schede ati potrà benissimo permettersi di vendere ad alto prezzo i nuovi mostri anche perchè credo proprio gli stia a cuore svuotare prima i magazzini dalle residue 4xxx... e la uscita più ritardata di nvidia permetterà ad ati di fare questo giochetto

quindi a meno che non si è ricchi finchè nvdia non farà uscire le controparti gt 300 ci sarà da sognarsele 5xxx
ed effettivamente suona meglio(per ati credo) che piazzare schede superiori a una 295...

certo però che se lo faresse è ovvio che ucciderebbe il mercato a colpi di bazooka...

Una cosa da considerare poi è quanto effettivamente queste schede servono.

Voglio dire, tantissime persone sono ancora con 19", i 20-22" si diffondono sempre di più, e credo che con monitor di questa categoria abbiamo raggruppato la maggioranza dell'utenza un minimo appassionata e dedita al gioco.

Ad oggi con una 4850 si gioca alla grandissima a praticamente tutto fino a 1680, e volendo, tanti titoli a 1920 (ovviamente da 85 € di vga bisogna un attimo non pretendere la luna). Abbiamo qualche mattone (non nominiamolo :D) ma anche quello gira con una certa decenza, scendendo un minimo a patti. Una 4870 1 gb poi oggi costa neanche 130 €.

Insomma, reale esigenza di potenza vi è solo fino ad un certo punto.

Mi chiedevo in questo senso se i vari ingegneri tenessero un minimo conto di questo, magari limitando appositamente le prestazioni delle nuove schede.

A.L.M.
27-07-2009, 01:39
direi che sarebbe il primo portatile per gaming che comprerei... ci andiamo assieme a prenderlo? io ho pronti i piedi di porco
:ubriachi: :asd:

Beh, i Westmere (32nm, e controller di memoria integrato) e la nuova piattaforma Montevina Plus, dovrebbero arrivare tra fine 2009 ed inizio 2010. Penso che a metà 2010 un pc con le caratteristiche che ho detto si dovrebbe trovare senza grossi problemi a meno di 1,600€.
Sinceramente finora, a parte per il comparto grafico, non ho ancora sentito l'esigenza di cambiare notebook...
Una VGA DX11 di livello, ed una cpu davvero innovativa (per la prima volta dopo i primi Core Duo) mi potrebbero convincere a sostituire il mio note, che va ancora benissimo, peraltro.
Per il gaming "mobile" ci sono già in commercio soluzioni davvero valide: ovvio che i 15.4" sono dei compromessi.
Ad esempio c'è un Asus con un crossfire di HD4870 Mobility.

Matalf
27-07-2009, 02:10
gia che si siamo vado un po OT anchio :D


stavo rigurdando le review dell asus W90vp quello con il cf di 4870 mobile e...

http://www.hwupgrade.it/articoli/portatili/2193/asus-w90vp-non-chiamatelo-portatile_8.html



a me sembra avede le prestazioni di una 4870, forse un po meno, nulla di eccezionale insomma, sopratutto dati i quasi 3000€ di costo ;)


cmq con la serie 5XXX si avrano belle gpu mobile

d.lo
27-07-2009, 10:24
Beh, i Westmere (32nm, e controller di memoria integrato) e la nuova piattaforma Montevina Plus, dovrebbero arrivare tra fine 2009 ed inizio 2010. Penso che a metà 2010 un pc con le caratteristiche che ho detto si dovrebbe trovare senza grossi problemi a meno di 1,600€.
Sinceramente finora, a parte per il comparto grafico, non ho ancora sentito l'esigenza di cambiare notebook...
Una VGA DX11 di livello, ed una cpu davvero innovativa (per la prima volta dopo i primi Core Duo) mi potrebbero convincere a sostituire il mio note, che va ancora benissimo, peraltro.
Per il gaming "mobile" ci sono già in commercio soluzioni davvero valide: ovvio che i 15.4" sono dei compromessi.
Ad esempio c'è un Asus con un crossfire di HD4870 Mobility.

si ma un cf di 4870 ad ora venduto su vista non serve a niente...

A.L.M.
27-07-2009, 14:09
gia che si siamo vado un po OT anchio :D


stavo rigurdando le review dell asus W90vp quello con il cf di 4870 mobile e...

http://www.hwupgrade.it/articoli/portatili/2193/asus-w90vp-non-chiamatelo-portatile_8.html



a me sembra avede le prestazioni di una 4870, forse un po meno, nulla di eccezionale insomma, sopratutto dati i quasi 3000€ di costo ;)


cmq con la serie 5XXX si avrano belle gpu mobile

Beh, non siamo OT, parliamo sempre di gpu future ATI, no? :D

Il problema è che con i Core 2 Duo mobile si è un bel po' cpu limited con un CF di Mobility HD4870, anche alla risoluzione di quel portatile: ecco perchè secondo me è necessario aspettare i core i7 / i5 mobile.
Tra una HD4870 desktop ed una mobile non c'è alcuna differenza a parte i clocks (che poi non sono esageratamente più bassi, la scheda in questione ha anche la vram GDDR5) ed i tweaks per il consumo, quindi non è quello il vero problema. ;)

Considera che i test che vedi online delle schede video da desktop sono spessissimo fatti con cpu di fascia altissima, a volte pure OC. Mentre lì in pratica hai una cpu di fascia bassa da pc (perchè magari i clocks non sono bassissimi, ma un Core 2 Duo da portatile è diverso da un desktop, quello sì). ;)

Pensa che pure con Crysis Warhead a 1900x1200, in DX10 e con AA2x con 2 HD4870 in CF tra un i7 965 ed un E8400 ci sono un 7-8 fps di differenza.

http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/

ghiltanas
27-07-2009, 15:07
Beh, non siamo OT, parliamo sempre di gpu future ATI, no? :D

Il problema è che con i Core 2 Duo mobile si è un bel po' cpu limited con un CF di Mobility HD4870, anche alla risoluzione di quel portatile: ecco perchè secondo me è necessario aspettare i core i7 / i5 mobile.
Tra una HD4870 desktop ed una mobile non c'è alcuna differenza a parte i clocks (che poi non sono esageratamente più bassi, la scheda in questione ha anche la vram GDDR5) ed i tweaks per il consumo, quindi non è quello il vero problema. ;)

Considera che i test che vedi online delle schede video da desktop sono spessissimo fatti con cpu di fascia altissima, a volte pure OC. Mentre lì in pratica hai una cpu di fascia bassa da pc (perchè magari i clocks non sono bassissimi, ma un Core 2 Duo da portatile è diverso da un desktop, quello sì). ;)

Pensa che pure con Crysis Warhead a 1900x1200, in DX10 e con AA2x con 2 HD4870 in CF tra un i7 965 ed un E8400 ci sono un 7-8 fps di differenza.

http://www.guru3d.com/article/core-i7-multigpu-sli-crossfire-game-performance-review/

nn capisco il confronto tra quelle 2 cpu intel con quel gioco e con quelle imp...ovviamente la differenza è minima, giusto l'engine fisico è multithread, con crysis, per giunta a quella risoluzione, quando hai un buon dual core occato basta e avanza.Il paragone tra cpu dovresti farlo con giochi come gta iv, li la vedi di brutto la differenza tra un dual core e un i7 ;) ...
e speriamo che in futuro i giochi siano sempre + votati al multithread, con sfruttamento intensivo dei core delle cpu

ghiltanas
27-07-2009, 15:09
per il discorso mobile, io eventualmente passerò a un portatile per giocare quando finalmente si degnaranno di far sfondare la tecnologia che permette di tenere la gpu esterna, in modo da cambiarla quando voglio, e spendere ovviamente meno della controparte mobile

Milotto
27-07-2009, 15:19
si si hai ragione infatti ho anche editato......per quanto riguarda la notizia del 10 settembre è una gran cosa, e finalmente amd potrebbe mettere in vendita una configurazione completamente nuova ed assai competitiva per gaming: phenom II 965 e forse 975 con rv870 accompagnata dal nuovo sb

Il nuovo sb uscirà i primi mesi del 2010....e poi non credo che per il gaming occorra tutto sto ben d Dio...:)
RV870 sarà da comprare intorno a Dicembre ...è inutile spendere i soldi per pagare il fattore novità.....tutto IMHO

Foglia Morta
27-07-2009, 20:20
ricordiamo che sto qua scrive a random... sempre meglio precisare

http://www.fudzilla.com/content/view/14814/1/

RV870 has RV770 design concepts

But DirectX 11

We’ve confirmed something that we’ve heard a long time ago, but we could not second it. Now we know that RV770 design concepts are the guidelines for the design of ATI's upcoming chip that well all keep calling RV870. This Evergreen generation chip has the same design concepts but you can expect faster speeds and more shader units.

The shader units are changed in order to accommodate DirectX 11 needs as this is the big focus of the chip. The chip is still scheduled for late Q3 2009 introduction, most likely Septemberish time and it will undoubtedly be the first Direct X 11 chip on the market.

Nvidia’s GT300, a next generation chip that also carries another codename but all keeps calling it GT300, is as far as we know the new architecture, something better than GT200 and you should expect some radical design changes.

Matalf
27-07-2009, 20:35
Fudzilla funziona così:

espone 10miglioni di teorie e poi dice che aveva ragione.


grazie al Beeeeeep :asd:


cmq mi sembra una marea di ovvietà, nulla dfi nuovo insomma :(
nanche una sparata sul numero di sp

Foglia Morta
27-07-2009, 21:25
Dunque , TheInq aveva postato:

http://www.hwupgrade.it/forum/showpost.php?p=28293054&postcount=5238

ed era sbagliato... Theo Valich aveva copiato pari pari , quindi l'errore è servito a fargli fare la magra figura.

Ora Charlie Demerjian con quest'articolo lo smerda http://www.semiaccurate.com/2009/07/27/plagiarism-rampant-it-journalism/ e corregge l'errore

Quindi:

Hemlock: top di gamma
Cypress: performance
Juniper: mainstream
Cedar e Redwood: entry level

Ale985
27-07-2009, 21:26
Una cosa da considerare poi è quanto effettivamente queste schede servono.

Voglio dire, tantissime persone sono ancora con 19", i 20-22" si diffondono sempre di più, e credo che con monitor di questa categoria abbiamo raggruppato la maggioranza dell'utenza un minimo appassionata e dedita al gioco.

Ad oggi con una 4850 si gioca alla grandissima a praticamente tutto fino a 1680, e volendo, tanti titoli a 1920 (ovviamente da 85 € di vga bisogna un attimo non pretendere la luna). Abbiamo qualche mattone (non nominiamolo :D) ma anche quello gira con una certa decenza, scendendo un minimo a patti. Una 4870 1 gb poi oggi costa neanche 130 €.

Insomma, reale esigenza di potenza vi è solo fino ad un certo punto.

Mi chiedevo in questo senso se i vari ingegneri tenessero un minimo conto di questo, magari limitando appositamente le prestazioni delle nuove schede.

Bravo Michel, stavo per fare la stessa considerazione. ;)

Se la 4870X2 si orienta per la 2569x1600 (e quindi a 1920x1080 non ti fa mancare proprio nulla, magari non con il "mattoncino"...ma comunque ti fa divertire), la serie 5xxx che sarà comunque superiore...se non hai minimo un 24 pollici non sono sfruttate.
Inoltre a risoluzion più basse penso ci voglia necessariamente un quad core per non essere cpu limited

Foglia Morta
27-07-2009, 21:43
Riporto qui... la crisi dei chip grafici dovrebbe essere terminata: http://www.brightsideofnews.com/news/2009/7/27/gpu-wars-amd-gains-market-share-in-q22009.aspx

Futura12
27-07-2009, 22:04
Bravo Michel, stavo per fare la stessa considerazione. ;)

Se la 4870X2 si orienta per la 2569x1600 (e quindi a 1920x1080 non ti fa mancare proprio nulla, magari non con il "mattoncino"...ma comunque ti fa divertire), la serie 5xxx che sarà comunque superiore...se non hai minimo un 24 pollici non sono sfruttate.
Inoltre a risoluzion più basse penso ci voglia necessariamente un quad core per non essere cpu limited

Oramai il quad-core è necessario per alcuni giochi che stanno uscendo,credo che con l'avvento dei nuovi giochi e delle DX11 sarà un requisito quasi fondamentale per spingere tutto al max,e saranno preferiti i quad di frequenza più bassa...a dual oltra overcloccati (tipo il mio Pentium Dual Core).
Ihmo credo che fra ben poco...quasi tutti gli appassionati dovranno passare ai 4 core,io sono gia pronto con il mio 775...i7 costa troppo.

Matalf
27-07-2009, 22:19
Gia ora si inizia a far sentire la potenza dei Quad nei giochi
http://media.bestofmicro.com/9/U/215490/original/Prototype%20CPU%20core%20scaling.png

ma sopratutto degli i7 :asd:
http://media.bestofmicro.com/9/T/215489/original/Prototype%20CPU%20clock%20scaling.png


il Gioco è Prototype non certo un campione di grafica ma le prime ottimizazioni si iniziano a far sentire :)


Qui la Review (http://www.tomshw.it/game.php?guide=20090710)

michelgaetano
27-07-2009, 22:23
Gia ora si inizia a far sentire la potenza dei Quad nei giochi
http://media.bestofmicro.com/9/U/215490/original/Prototype%20CPU%20core%20scaling.png

ma sopratutto degli i7 :asd:
http://media.bestofmicro.com/9/T/215489/original/Prototype%20CPU%20clock%20scaling.png


il Gioco è Prototype non certo un campione di grafica ma le prime ottimizazioni si iniziano a far sentire :)


Qui la Review (http://www.tomshw.it/game.php?guide=20090710)

Più che altro nel secondo grafico a stupire è Nehalem... O sarà solo per l'HT (SMT)?

kinotto88
27-07-2009, 22:31
Gia ora si inizia a far sentire la potenza dei Quad nei giochi
cut

ma sopratutto degli i7 :asd:
cut


il Gioco è Prototype non certo un campione di grafica ma le prime ottimizazioni si iniziano a far sentire :)


beh c'è da considerare che il test è a 1280x1024...a risoluzioni più alte dubito che il guadagno sia così evidente...:)

Matalf
27-07-2009, 22:56
Più che altro nel secondo grafico a stupire è Nehalem... O sarà solo per l'HT (SMT)?

si ovvio che quadagnare 3 FPS a core non te ne fai nulla, ma se consideri che ogni scali rapresenta un 10% dal dual al quad passa un bel 20%




per l'i7 ti assicuro che è l'architettura in se ad essere ottima l'HT in questo gioco viene sfruttato poco nulla ;)


@: per i C2Q non ti so dire io con la mia fida 4870 faccio 60FPS in FullHD AAx8 a quel gioco

michelgaetano
27-07-2009, 23:24
si ovvio che quadagnare 3 FPS a core non te ne fai nulla, ma se consideri che ogni scali rapresenta un 10% dal dual al quad passa un bel 20%




per l'i7 ti assicuro che è l'architettura in se ad essere ottima l'HT in questo gioco viene sfruttato poco nulla ;)


@: per i C2Q non ti so dire io con la mia fida 4870 faccio 60FPS in FullHD AAx8 a quel gioco

Non lo metto in dubbio, anche perchè visto l'icnremento prestazionale da 1 a 4 core, non dovrebbe arrivare a tanto :D

ArCH85
27-07-2009, 23:35
sarà magari soggezione, ma con l'i7 a 3.2ghz e una normale gtx280 freq. stock riesco a giocare al "mattonepereccellenza" a 1920x1200 con TUTTO al max, dx10 su vista 64bit, aa e af disattivati, ad un framerate ottimo (non ho misurato perchè non ho fraps ancora installato, ma penso di essere vicino se non oltre ai 30fps)

michelgaetano
28-07-2009, 01:56
sarà magari soggezione, ma con l'i7 a 3.2ghz e una normale gtx280 freq. stock riesco a giocare al "mattonepereccellenza" a 1920x1200 con TUTTO al max, dx10 su vista 64bit, aa e af disattivati, ad un framerate ottimo (non ho misurato perchè non ho fraps ancora installato, ma penso di essere vicino se non oltre ai 30fps)

Beh con quella dio di macchina verrebbe da piangere a non ottenere certi risultati :sofico:

Volendo puoi provare a fare il benchmark integrato!

Andrea deluxe
28-07-2009, 07:15
sarà magari soggezione, ma con l'i7 a 3.2ghz e una normale gtx280 freq. stock riesco a giocare al "mattonepereccellenza" a 1920x1200 con TUTTO al max, dx10 su vista 64bit, aa e af disattivati, ad un framerate ottimo (non ho misurato perchè non ho fraps ancora installato, ma penso di essere vicino se non oltre ai 30fps)

sui 30 con picchi di 45-50

ghiltanas
28-07-2009, 09:13
sarà magari soggezione, ma con l'i7 a 3.2ghz e una normale gtx280 freq. stock riesco a giocare al "mattonepereccellenza" a 1920x1200 con TUTTO al max, dx10 su vista 64bit, aa e af disattivati, ad un framerate ottimo (non ho misurato perchè non ho fraps ancora installato, ma penso di essere vicino se non oltre ai 30fps)

un anno e mezzo fa era chiaro quando dicevi mattonepereccellenza a cosa ti riferivi...adesso quello scettro mi sa che è passato a gta4, specie per il discorso procio, quindi immagino tu ti riferisca a questo gioco

Simedan1985
28-07-2009, 09:41
Oramai il quad-core è necessario per alcuni giochi che stanno uscendo,credo che con l'avvento dei nuovi giochi e delle DX11 sarà un requisito quasi fondamentale per spingere tutto al max,e saranno preferiti i quad di frequenza più bassa...a dual oltra overcloccati (tipo il mio Pentium Dual Core).
Ihmo credo che fra ben poco...quasi tutti gli appassionati dovranno passare ai 4 core,io sono gia pronto con il mio 775...i7 costa troppo.

Sì, credo che le DX11 potrebbero finalmente finire per rendere utili i quad core in ambito gaming. Vedremo ai primi benchmark. Le DX11 potrebbero passare alla storia come il software che mi han fatto prendere un quad :asd:

Gia ora si inizia a far sentire la potenza dei Quad nei giochi
http://media.bestofmicro.com/9/U/215490/original/Prototype%20CPU%20core%20scaling.png

ma sopratutto degli i7 :asd:
http://media.bestofmicro.com/9/T/215489/original/Prototype%20CPU%20clock%20scaling.png


il Gioco è Prototype non certo un campione di grafica ma le prime ottimizazioni si iniziano a far sentire :)


Qui la Review (http://www.tomshw.it/game.php?guide=20090710)


Quotone ....i quad tra un po di mesi regneranno,ma andranno meglio anche soluzioni con + di 4 core

Capozz
28-07-2009, 12:30
In 1280x1024 grazie che un quad rende, in 1920x1080 o più su molto meno :D
Poi oh se serve prenderemo pure un quad :asd:

Foglia Morta
28-07-2009, 12:36
Qualche immagine in DX11: http://babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-res&trurl=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F102616.htm&lp=zt_en&btnTrUrl=Translate

Athlon 64 3000+
28-07-2009, 13:11
Ogni volta è la solita storia,quando escono delle nuove dx le precedenti diventano obsolete e si grida al miracolo per le nuove dx e le nuove architettura e come dimostrano i precedenti finirà sempre allo stesso modo e cioè che i motori dx11 usciranno tra qualche hanno e ci saranno schede video molto più potenti di quelle di prossima uscita.

Athlon 64 3000+
28-07-2009, 13:16
I primi giochi DX11 dovrebbero uscire già prima della fine dell'anno...

Non è che poi avranno solo il "bollino" dx11 e saranno come sono stati fino ad adesso i giochi pseudo dx10 che in realtà sono dx9 con qualche effetto dx10?

§l4§h
28-07-2009, 13:59
Il bello è che tutto ciò promette di essere un vantaggio per chi ha una HD4000, visto che implementare in DX11 significherà farlo contemporaneamente in DX10 e DX10.1.

Scusa potresti spiegare questa affermazione? Non ho ben capito in cosa sta il vantaggio....
Lo chiedo perchè sono in procinto di prendere una 4870 1 GB e sono indeciso per sta storia delle dx11...

ArCH85
28-07-2009, 14:10
Beh con quella dio di macchina verrebbe da piangere a non ottenere certi risultati :sofico:

Volendo puoi provare a fare il benchmark integrato!


oggi pomeriggio quando finisco di lavorare provo, son curioso :) con il q6600 era ingiocabile con quelle impostazioni..

comunque mi riferisco a crysis, non a gta4 :p (gta4 ha delle richieste di ram video eccessivamente esagerate.. )

appleroof
28-07-2009, 14:34
Qualche immagine in DX11: http://babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-res&trurl=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F102616.htm&lp=zt_en&btnTrUrl=Translate

Purtroppo è evidentemente la solita fuffa marketing...cmq speriamo vengano implementate al più presto nei giochi.

Foglia Morta
28-07-2009, 15:46
pcb un po più lungo di quello della 2900XT e 2 connettori 6pin...

forse fanno una preview

http://209.85.229.132/translate_c?hl=it&ie=UTF-8&sl=zh-CN&tl=en&u=http://www.chiphell.com/2009/0728/89.html&rurl=translate.google.com&usg=ALkJrhg0gthrBxA6NGkLnngpE8QoSh39yg

http://www.chiphell.com/uploadfile/2009/0728/20090728094608914.png

michelgaetano
28-07-2009, 15:49
pcb un po più lungo di quello della 2900XT e 2 connettori 6pin...

forse fanno una preview

http://209.85.229.132/translate_c?hl=it&ie=UTF-8&sl=zh-CN&tl=en&u=http://www.chiphell.com/2009/0728/89.html&rurl=translate.google.com&usg=ALkJrhg0gthrBxA6NGkLnngpE8QoSh39yg

http://www.chiphell.com/uploadfile/2009/0728/20090728094608914.png

"Bene" per i connettori (almeno non è un 6+8), ma la 2900XT quanto è lunga? Spero non si arrivi ai 27 cm :cry:

Edit: leggo 10,5 inches, con conversione 26,7 cm (quanto le GTX 260) qualcuno conferma?

Matalf
28-07-2009, 15:55
pcb un po più lungo di quello della 2900XT e 2 connettori 6pin...

forse fanno una preview

http://209.85.229.132/translate_c?hl=it&ie=UTF-8&sl=zh-CN&tl=en&u=http://www.chiphell.com/2009/0728/89.html&rurl=translate.google.com&usg=ALkJrhg0gthrBxA6NGkLnngpE8QoSh39yg

http://www.chiphell.com/uploadfile/2009/0728/20090728094608914.png

che brutta, ma almeno non sembra uno stupido render :asd:

cmq i connettori saranno tornati vrdso l'esterno? speriamo!!

P.s: quanto era lunga la 2900xt? 10"?

michelgaetano
28-07-2009, 15:58
che brutta, ma almeno non sembra uno stupido render :asd:

cmq i connettori saranno tornati vrdso l'esterno? speriamo!!

P.s: quanto era lunga la 2900xt? 10"?

Ho trovato questa foto

http://www.techpowerup.com/reviews/ATI/HD_2900_XT/images/comparison.jpg

La GTX lì dovrebbe essere sui 27 cm, quindi la 2900 dovrebbe essere sui 24-25. Credo che sarà sui 26 cm questa nuova gpu... Attendiamo gli altri però :D

mitico_andrea
28-07-2009, 16:18
I primi giochi DX11 dovrebbero uscire già prima della fine dell'anno...

Non è che poi avranno solo il "bollino" dx11 e saranno come sono stati fino ad adesso i giochi pseudo dx10 che in realtà sono dx9 con qualche effetto dx10?

Purtroppo è evidentemente la solita fuffa marketing...cmq speriamo vengano implementate al più presto nei giochi.

Ciao a tutti,
mi sono appena iscritto a questo thread per capire a tendere cosa ci si aspetta nel comparto video.
Vorrei solo sottolineare, ma forse ripeto cosa già detta, che i giochi in directx 10 sono stati veramente pochi. Di seguito link con elenco giochi in directx 10: http://www.microsoft.com/games/en-US/aboutgfw/Pages/directx10-a.aspx

Secondo me il successo delle directx 11 sarà legato al successo o meno di Windows 7.

Matalf
28-07-2009, 16:32
Ciao a tutti,
mi sono appena iscritto a questo thread per capire a tendere cosa ci si aspetta nel comparto video.
Vorrei solo sottolineare, ma forse ripeto cosa già detta, che i giochi in directx 10 sono stati veramente pochi. Di seguito link con elenco giochi in directx 10: http://www.microsoft.com/games/en-US/aboutgfw/Pages/directx10-a.aspx

Secondo me il successo delle directx 11 sarà legato al successo o meno di Windows 7.

se bisogna dire la verità gi gioco Dx10 per ora non ce n'è neanche uno :asd:

sono tutti Dx9 slolo ricompilati con qualche effetto in più.

questo perchè sono tutti porting da console e le console come è ben noto sono ormai più che superate ;)

Obi 2 Kenobi
28-07-2009, 16:32
Secondo me il successo delle directx 11 sarà legato al successo o meno di Windows 7.

Ne dubito. Fino a quando i giochi per saranno sempre dei porting da console (e praticamente tutti i giochi lo sono), le dx 11 saranno lì a prendere muffa così com'è successo con le 10.

michelgaetano
28-07-2009, 16:37
Ne dubito. Fino a quando i giochi per saranno sempre dei porting da console (e praticamente tutti i giochi lo sono), le dx 11 saranno lì a prendere muffa così com'è successo con le 10.

Non diamo le cose così per scontato, per fortuna sembra già esserci movimento a riguardo.

mitico_andrea
28-07-2009, 17:00
Ne dubito. Fino a quando i giochi per saranno sempre dei porting da console (e praticamente tutti i giochi lo sono), le dx 11 saranno lì a prendere muffa così com'è successo con le 10.

Non diamo le cose così per scontato, per fortuna sembra già esserci movimento a riguardo.

sono convinto che se il mercato desktop fosse cresciuto a dovere e ci fosse stato un ricambio di hardware da parte dell'utenza tale da poter far girare Vista e i nuovi applicativi in maniera decente, avremmo visto più giochi in dx10.

Oppure se le dx10 non fossero state rilasciate solo per Vista e quindi si potevano utilizzare sotto XP sai quanti giochi sarebbero usciti con queste librerie.

Ecco perché penso che le dx11 sono legate molto al successo di Seven:)

Obi 2 Kenobi
28-07-2009, 17:01
Non diamo le cose così per scontato, per fortuna sembra già esserci movimento a riguardo.

ti assicuro che le dx11 saranno "fallimento" totale grazie alle console. Purtroppo ne sono convintissimo :(

Obi 2 Kenobi
28-07-2009, 17:04
Ecco perché penso che le dx11 sono legate molto al successo di Seven:)

La cosa che mi fa più ridere è che se nel caso le dx11 dovessero fallire, stavolta non si darà la colpa al S.O. :asd:

mitico_andrea
28-07-2009, 17:09
La cosa che mi fa più ridere è che se nel caso le dx11 dovessero fallire, stavolta non si darà la colpa al S.O. :asd:

Quoto se Seven sarà un buon sistema e nonostante questo le dx11 saranno un flop . No se Seven sarà una chiavica.:(

Io spero solo che usciranno dei bei gioconi con grafica al limite del reale, se poi saranno in dx11,o 12, o in opengl xx non me frega, basta che ci siano titoli e titoli :D

michelgaetano
28-07-2009, 17:21
ti assicuro che le dx11 saranno "fallimento" totale grazie alle console. Purtroppo ne sono convintissimo :(

Convintissimo ma senza nulla di materiale che possa avvalorare la cosa.

Le sensazioni non servono a nulla qui.

Obi 2 Kenobi
28-07-2009, 17:36
Le dx 10 hanno fatto questa fine proprio grazie alle console. Mi spieghi perchè questa mia teoria non si dovrebbe riapplicare anche per le 11?

michelgaetano
28-07-2009, 17:42
Le dx 10 hanno fatto questa fine proprio grazie alle console. Mi spieghi perchè questa mia teoria non si dovrebbe riapplicare anche per le 11?

Perchè AMD sta spingendo molto a riguardo, e di giochi dirx 11 se ne sono già annunciati diversi.

Obi 2 Kenobi
28-07-2009, 17:50
allora speriamo davvero di vederli sti benedetti giochi dx11.

Lamana
28-07-2009, 17:55
A me basterebbe vedere dei benedetti giochi :D:oink:

Ale985
28-07-2009, 19:34
Perchè AMD sta spingendo molto a riguardo, e di giochi dirx 11 se ne sono già annunciati diversi.

AC2 sarà un DX11 orientered?

RaZoR93
28-07-2009, 19:44
Qualche immagine in DX11: http://babelfish.yahoo.com/translate_url?doit=done&tt=url&intl=1&fr=bf-res&trurl=http%3A%2F%2Fwww.inpai.com.cn%2Fdoc%2Fhard%2F102616.htm&lp=zt_en&btnTrUrl=TranslateAlcune immagini sembrano del cryengine 2, l'ultima non mi pare niente di eccezionale invece. :stordita:
Certamente non mi metto a giudicare le DX11 da questi screen, in ogni caso. :sofico:

davyjones
28-07-2009, 20:01
sarà un fake?
http://userdisk.webry.biglobe.ne.jp/012/513/94/N000/000/000/123789684561616118844_RV888888888888_20080811183422.jpg