View Full Version : [Thread ufficiale] Aspettando R800 - le nuove GPU ATI DX11
19Dante86
10-06-2009, 11:58
Ottima ottima situazione con 100 euro il mese prossimo puoi farti una vga con cui giocare serenamente per un annetto...tanto le DX11 non saranno assolutamente indispensabili per moooolto tempo :oink:
appunto ho deciso di prendere la 260 a fine mese :)
Imho è una soluzione mainstream, o almeno a metà tra il mainstream e l'enthusiast :)
appunto ho deciso di prendere la 260 a fine mese :)
Mmm ma non andresti meglio con una seconda 4850? (spendendo anche meno) :oink: Comunque è davvero strano, ormai siamo a pochi mesi dal lancio e, a parte speculazioni più o meno logiche, di concreto non si sa quasi nulla...
Athlon 64 3000+
10-06-2009, 20:01
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/501-rv870-entscheidung-ueber-launchdatum-ende-juni
ghiltanas
10-06-2009, 20:14
http://news.ati-forum.de/index.php/news/34-amdati-grafikkarten/501-rv870-entscheidung-ueber-launchdatum-ende-juni
da incubi la traduzione con google :fagiano: :
"
Abbiamo ripetutamente stati riportati sulla speculazione, che è una data di lancio nel mese di luglio non hanno escluso. Le nostre ricerche di informazioni da parte di imprese e chiudere cerchi è stata dispersa Date luglio a novembre chiamati. Ciò è dovuto al fatto che AMD ora specificamente sbagliato date strews partner per una potenziale lacuna che potrebbe essere scomoda rausgeben dati, e anche di scoprire che hai il desiderio di lasciare un certo margine.
Secondo le nostre informazioni, una decisione sulla data di lancio verso la fine di giugno molto plausibile, come TSMC, la seconda generazione 40nm processo di fabbricazione basato sul RV740 e poi si prova il successo di ottimizzare il tasso di rendimento è una precisa decisione di utilizzare il RV870 possibile."
appleroof
10-06-2009, 20:17
da incubi la traduzione con google :fagiano: :
"
Abbiamo ripetutamente stati riportati sulla speculazione, che è una data di lancio nel mese di luglio non hanno escluso. Le nostre ricerche di informazioni da parte di imprese e chiudere cerchi è stata dispersa Date luglio a novembre chiamati. Ciò è dovuto al fatto che AMD ora specificamente sbagliato date strews partner per una potenziale lacuna che potrebbe essere scomoda rausgeben dati, e anche di scoprire che hai il desiderio di lasciare un certo margine.
Secondo le nostre informazioni, una decisione sulla data di lancio verso la fine di giugno molto plausibile, come TSMC, la seconda generazione 40nm processo di fabbricazione basato sul RV740 e poi si prova il successo di ottimizzare il tasso di rendimento è una precisa decisione di utilizzare il RV870 possibile."
:what:
:asd:
edit letto "meglio": in pratica direbbe che verso fine giugno si potrebbe decidere se lanciarla tra luglio e novembre. Se è così, riesco a darle pure io stè notizie tramite le mie "fonti"...direi che rv870 forse verrà lanciato entro l'anno :D :D
da incubi la traduzione con google :fagiano: :
[cut]Non era meglio cosi?
"We reported already several times about the speculation, which is a launch date in July have not ruled out. Our searches for information from companies and close circles was dispersed Dates July to November called. This is due to a fact that AMD now specifically wrong dates strews partner to a potential loophole which could be uncomfortable rausgeben data, and also to find out that you have a wish to leave some leeway.
According to our information, a decision on the launch date towards the end of June very plausible, as TSMC, the second generation 40nm manufacturing process based on the RV740 will test and then the success in optimizing the yield rate is a precise decision whether to use the RV870 possible."
Tanto credo che l'inglese lo mastichino quasi tutti :D
:what:
:asd:
edit letto "meglio": in pratica direbbe che verso fine giugno si potrebbe decidere se lanciarla tra luglio e novembre. Se è così, riesco a darle pure io stè notizie tramite le mie "fonti"...direi che rv870 forse verrà lanciato entro l'anno :D :DIn effetti...tra luglio e novembre...pure io la facevo sta news :asd:
Luglio per il lancio della prima 58XX coinciderebbe perfettamente col l'annunciato taglio di prezzi per la serie 4800 :oink:
Athlon 64 3000+
11-06-2009, 07:30
Dubito che lancino RV870 a luglio,più facile a settembre.
Infatti ATI non ha alcuna fretta...nVidia pare che prima di Novembre non presenterà G300...quindi per "arrivare prima" ad ATI basta uscire con le vga dx11 a Settembre...e nel frattempo a luglio e agosto svende le 4800 residue...vedere le 5800 a Luglio è più che altro una speranza :oink:
Io un'altra scheda a Luglio non la compro... l'anno scorso la 4870 stava a 85° prima ancora di montarla.
Io un'altra scheda a Luglio non la compro... l'anno scorso la 4870 stava a 85° prima ancora di montarla.
:asd:
io aspettero la prima soluzione Toxic (questa sarebbe la terza :eek: )
quindi se esce a luglio è meglio :asd:
19Dante86
11-06-2009, 11:15
io i primi modelli non li considero nemmeno,solo i bench voglio vedere
Foglia Morta
12-06-2009, 08:37
Tra le altre cose dice anche che la serie HD5000 è già nelle mani degli sviluppatori... ormai dovrebbero iniziare a fuoriuscire più info riguardo queste gpu
http://www.xbitlabs.com/news/video/display/20090611123755_Game_Developers_Likely_to_Utilize_Performance_Boosting_Features_of_DirectX_11_First__ATI.html
As the release of DirectX 11 application programming interface (API) and supporting hardware and software approaches, more details regarding the benefits they both bring as well as certain peculiarities transpire. While no people involved into development of next-generation games would disclose which features next-generation titles utilize, educated guesses may shed some light onto some usage models of DX11 API.
The First Three Things to Do with DirectX 11
According to Richard Huddy, senior manager of software developer relations at ATI, graphics business unit of Advanced Micro Devices, game developers can easily boost performance of their next-generation titles by implementing certain DirectX 11 capabilities. In addition, by utilizing some of the features of the new API, they can tangibly improve visual appeal of their future games.
“If I was making a decision about [which DirectX 11 features to implement first], I would go for three things fairly quickly,” said Mr. Huddy.
Those things are, apparently, multi-threading support, compute shaders and tessellation.
Multi-Threading: +20% Performance
“As soon as I got hold of DirectX 11 API from Microsoft and Windows 7 beta, which they’ve had for a considerable amount of months now, I would add multi-threading support through the use of Display Lists because that can guarantee me a speed up in almost any application I can think of. Typical benefit is going to be around 20%, but I expect a large variation of that; the variation it can be north of 50%,” explained the developer relations specialist.
What is even more important, software developed with DirectX 11 Display Lists in mind would work faster on every hardware that is compatible with Windows 7, provided that there are appropriate drivers for graphics cards.
“That would be attractive to game developers since that would not require that I have DirectX 11 hardware at hand: the use of Display Lists will give a benefit on any Windows 7 hardware, which includes DirectX 9, DirectX 10, DirectX 11 hardware, once AMD, Nvidia and others ship appropriate drivers that offer the acceleration,” said Richard Huddy.
Post Processing: +25% Performance
“Then I would go for compute shaders, for the low-hanging fruit: I would do things like post-processing, physics, AI, or maybe running particle systems. But the easiest thing to do is to take all the post-processing and bundle it all up into a compute shader, the way it handles [data] transactions is more efficient, said the developer relations chief.
Presently post-processing effects, such as motion blur or depth of field, are done using pixel shader, which may not be very efficient in terms of performance since pixel shaders still depend on the graphics pipeline and require data transfer, usage of texture instructions loads of memory reads and so on. Since compute shaders are independent of the rendering pipeline and require far less of data transactions, texture reads, etc., implementation of post-effects using them may be substantially faster.
“At the moment post-processing is done using pixel shaders and it can be quite hard to get the efficiency out of the hardware. So, we think compute shaders are going to give significant performance win in that specific area of code. Typically we see that post-processing costs from 10% to 25% of frame time (depends on post-processing),” explained Mr. Huddy.
It should be noted that compute shaders 4.0 and 4.1 supported by existing ATI Radeon and Nvidia GeForce graphics cards, therefore, as they have many limitations, may not work as fine as compute shaders 5.0 when it comes to post-processing and similar usage. Therefore, Richard Huddy does not expect CS 4.x to become popular, especially keeping in mind that those, who buy leading-edge hardware, are more likely to acquire the latest game.
ATI has already demonstrated DirectX 11-capable hardware, therefore, at least select game developers already have ATI Radeon HD 5000-series graphics cards at hands.
Tessellation: When Performance Meets Quality
Tessellation is not exactly a performance boosting feature, but it can generate highly-detailed objects using less resources than using traditional technology; therefore, either game developers will be able to offer better graphics, or they will be able to render existing graphics with higher speed.
“After the post-processing work, I would probably switch to tessellation. I would use […] patch approximation to smooth out jagged objects, things like pipes, which are supposed to have smooth form, use N-patches there. Or I will be even more aggressive and take something like parallax occlusion mapping, which is a rather attractive kind of trick for improving the quality of pixels within an object. I would instead extrude the geometry and load a parallax occlusion height map and then would generate much improved silhouettes using the tessellator,” said Mr. Huddy.
Obviously, to use tessellation, developers will have to rely on DirectX 11 or, at least, hardware with tessellation support. Still, tessellation is a yet another advantage of DX11.
More to Come!
There are a lot more things to implement, though, to boost performance of future games. One of them is HDR compression.
Mister Tarpone
12-06-2009, 09:03
secondo me ste schede usciranno durante questa estate. quindi a chi vuol cambiare scheda adesso consiglio di tener duro ed aspettare le 5800..che manca poco.
imho
Mister Tarpone
12-06-2009, 09:12
diciamo a settembre via...
diciamo a settembre via...
Ma in quel periodo verrà presentato solo il mainstream oppure anche il top?
Mister Tarpone
12-06-2009, 09:14
secondo me esce proprio la 5870
la fascia mainstream è già stracoperta...col taglio dei prezzi a luglio la 4870 arriverà sulle 100 euro e rotti...la 4850 praticamente regalata, roba che ti ci farai un crossfire con 120 euro...chi vuole spendere queste cifre è già a posto, per chi vuole spendere +200 euro ci sarà la 5870...e entro fine anno 5850 a prezzo abbordabile con la serie 4XXX che concluderà il suo ciclo vitale...5870x2 in concomitanza con G300 per la solita sfida all'ultimo frames (che cosa orginale che ho scritto -_-).
Ovviamente Imo :oink:
secondo me ste schede usciranno durante questa estate. quindi a chi vuol cambiare scheda adesso consiglio di tener duro ed aspettare le 5800..che manca poco.
imho
Dipende dal motivo per cui si desidera cambiare...chi ha una 4870/4850 o gtx 260 (tanto per dire qualche VGA con cui si gioca bene) non ci fa un grande affare a prendere una scheda nuova ora, perché spenderebbe soldi per un 10% in più (tipo 4870->4890), quindi fa senz'altro bene ad attendere le 5800 (o anche le nVidia)...
Chi sta messo male e vede i giochi scattare, col taglio dei prezzi del mese prossimo può fare un buonissimo affare con la serie 4800...con cui giocherà sicuramente bene anche nel 2010...anno in cui le DX11 non saranno neanche lontanamente indispensabili...
prima di vedere roba DX11 ci vorrà una diffusione decente di schede mainstream DX11 e forse addirittura delle nuove console...
Che senso avrebbe per le SH sviluppare per delle librerie supportate da un hardware che possiedono solo pochi appassionati?
:oink:
Athlon 64 3000+
12-06-2009, 09:43
Per esperienza diretta e anche come il passato ci ha fatto vedere quando usciranno i primi giochi dx11 GT300 e RV870 saranno gia obsoleti e ci saranno schede video molto più potenti.
Chi sta messo male e vede i giochi scattare, col taglio dei prezzi del mese prossimo può fare un buonissimo affare con la serie 4800...con cui giocherà sicuramente bene anche nel 2010...anno in cui le DX11 non saranno neanche lontanamente indispensabili...
E' proprio quello che mi stuzzica: il prezzo prestazioni delle 4800. Non vedo l'ora che escano i primi bench della serie 5000.
Foglia Morta
12-06-2009, 09:56
Il taglio ai prezzi della serie HD4000 è coerente con l'uscita a fine Luglio o inizio Agosto per la prima gpu della serie HD5000... voci a riguardo c'erano già qualche mese fa: http://www.hwupgrade.it/forum/showpost.php?p=27145395&postcount=3775
Per esperienza diretta e anche come il passato ci ha fatto vedere quando usciranno i primi giochi dx11 GT300 e RV870 saranno gia obsoleti e ci saranno schede video molto più potenti.
Regola numero 1 anti-scimmia-da-hardware-nuovo : comprare hardware che fa girare software già esistente, da usare ORA. Il futuro nella vita è sempre incerto, in informatica ancora di più -_-
:oink:
5870 e G300 più che per le DX11 saranno interessanti per il surplus di prestazioni...che potrebbero servire per qualche gioco in uscita a fine anno, se configurato in maniera estrema (risoluzioni 1920x1200 o superiori, filtri, ecc)
Anche se su G300 ho qualche dubbio...se dovesse avere un'evoluzione simile a G80, da G300 in poi potremmo vedere per due anni solo versione ridotte o leggeri miglioramenti della stessa architettura....(chi al tempo ha preso la 8800GTX, se se l'è tenuta, gioca bene ancora adesso)
Si è capito che stamattina sono in vena di post :oink:
E' proprio quello che mi stuzzica: il prezzo prestazioni delle 4800. Non vedo l'ora che escano i primi bench della serie 5000.
Infatti è propio il momento giusto per fare un upgrade conveniente....4870/90 e Phenom II...... ;) con 400 euroz sei a cavallo...
Mister Tarpone
12-06-2009, 12:02
Dipende dal motivo per cui si desidera cambiare...chi ha una 4870/4850 o gtx 260 (tanto per dire qualche VGA con cui si gioca bene) non ci fa un grande affare a prendere una scheda nuova ora, perché spenderebbe soldi per un 10% in più (tipo 4870->4890), quindi fa senz'altro bene ad attendere le 5800 (o anche le nVidia)...
eh.. ma purtroppo ho visto alcuni fare upgrade assurdi proprio stile GTX260 ->gtx275 o 4870->4890 :asd:
chi ha una scheda cesso invece fa anche bene a prendersi una 260/4870/275/4890 ecc ecc ecc ecc ecc
Gabriyzf
12-06-2009, 12:22
io continuo a credere che di giochi che mettano in crisi l'hw attuale se ne vedranno (ottimizzazioni cazzute a parte) con la next gen delle consolle
Mister Tarpone
12-06-2009, 12:28
io continuo a credere che di giochi che mettano in crisi l'hw attuale se ne vedranno (ottimizzazioni cazzute a parte) con la next gen delle consolle
non è vero. appena escono ste schede nuove dovremo buttare dalla finestra o scaricare nel water le nostre schede attuali punto e basta :sborone:
scherzo
non è vero. appena escono ste schede nuove dovremo buttare dalla finestra o scaricare nel water le nostre schede attuali punto e basta :sborone:
scherzo
Beh, potresti portarti avanti col lavoro e buttare la 6200 già da ora... :asd:
Ma che fine ha fatto il tuo pc con la GTX260?
Mister Tarpone
12-06-2009, 12:50
quella in firma non è la config. principale :cool:
Infatti è propio il momento giusto per fare un upgrade conveniente....4870/90 e Phenom II...... ;) con 400 euroz sei a cavallo...
Considera che per me è ancora strano pensare che spendendo meno di 200 euro hai una vga al top delle prestazioni.
Questo perchè l'ultimo mio acquisto in ambita vga è stata una ati x850xt pagata più di 200 euro nel 2006 e già fortemente in crisi nel 2007.
Fortunatamente oggi si è arrivati ad una situazione più calma in questo ambito quindi vado più sicuro sull'acquisto anche perchè, se si continua su questa linea, comprare una 4890 ora e poi cambiarla fra 1 anno o poco più non è un salasso economico.
quella in firma non è la config. principale :cool:
Ahhh, ecco, è la fagian-configurazione. :sborone:
Mister Tarpone
12-06-2009, 13:04
Ahhh, ecco, è la fagian-configurazione. :sborone:
però mi sta venendo voglia di provare un cypress(o) :sborone:
quanti sp avrà secondo te alm?
eh.. ma purtroppo ho visto alcuni fare upgrade assurdi proprio stile GTX260 ->gtx275 o 4870->4890 :asd:
chi ha una scheda cesso invece fa anche bene a prendersi una 260/4870/275/4890 ecc ecc ecc ecc ecc
Beh alla fine è soprattutto una questione di disponibilità economica, con ipotetico cash infinito credo che ognuno di noi aggiornerebbe il PC ogni due settimane :oink:
Mister Tarpone
12-06-2009, 13:39
Beh alla fine è soprattutto una questione di disponibilità economica, con ipotetico cash infinito credo che ognuno di noi aggiornerebbe il PC ogni due settimane :oink:
infatti :oink:.
Andrea deluxe
13-06-2009, 08:49
http://vr-zone.com/forums/443136/ati-to-boost-efficiency-of-multi-gpu-operation-in-opengl.html
http://vr-zone.com/forums/443136/ati-to-boost-efficiency-of-multi-gpu-operation-in-opengl.html
Interessante...eccezion fatta il futuro TECH5 (Rage et filii) non credo ci siano altri motori OpenGL...=(
ghiltanas
15-06-2009, 20:26
a quanto pare le dx11 stuzzicano le sh:
http://www.pcgameshardware.com/aid,687276/Stalker-Call-of-Pripyat-Possible-DirectX-11-game/News/
:sperem: le adottino in massa e subito :p
DarthFeder
15-06-2009, 21:20
a quanto pare le dx11 stuzzicano le sh:
http://www.pcgameshardware.com/aid,687276/Stalker-Call-of-Pripyat-Possible-DirectX-11-game/News/
:sperem: le adottino in massa e subito :p
ma quelle foto non sono di Clear Sky? Ricordo di averle viste nella rete mesi e mesi fa...mi puzza di fake :mbe:
Foglia Morta
15-06-2009, 21:38
http://publish.it168.com/2009/0611/20090611067001.shtml
fanno fuori le gpu rimaste:
AMD is preparing yet another performance-mainstream Radeon HD 4000 series SKU. The Radeon HD 4790 finds lineage from the Radeon HD 4890, currently AMD's fastest GPU. The RV790 GPU will be given a new set of specifications and memory configuration, to yield an SKU that performs better than the Radeon HD 4770, and slightly better than HD 4850. It beats us as to why it is positioned in the HD 4700 series, and not say "Radeon HD 4860", but we are too late to comment on that.
Specifications-wise, the RV790 core runs at 600 MHz, slightly lower than the RV770 in Radeon HD 4850 (625 MHz), but its performance increment over it comes from the use of GDDR5 memory. The GPU makes use of a 256-bit wide GDDR5 memory interface. It handles 512 MB of memory clocked at 800 MHz (3200 MHz effective). Being based on the RV790, it is pin-compatible with any existing HD 4890 PCB. Price-wise, it is expected to sit between the HD 4850 and HD 4870.
http://www.techpowerup.com/96859/AMD_Readying_Radeon_HD_4790_Based_on_RV790.html
IMO questa scheda avrà margini di overclock enormi...
Dopo verrà la serie HD5000 :O
a quanto pare le dx11 stuzzicano le sh:
http://www.pcgameshardware.com/aid,687276/Stalker-Call-of-Pripyat-Possible-DirectX-11-game/News/
:sperem: le adottino in massa e subito :p
mah magari non ho capito l'oggetto del link, ma quelle img sono di clear sky, e non è che siano tutto sto concentrato di grafica...
ghiltanas
15-06-2009, 21:43
ma che vi frega delle foto :mbe: ...quelle sono messe li cosi
dovete leggere l'intervista
a quanto pare le dx11 stuzzicano le sh:
http://www.pcgameshardware.com/aid,687276/Stalker-Call-of-Pripyat-Possible-DirectX-11-game/News/
:sperem: le adottino in massa e subito :p
Finalmente si incomincera' a vedere qualcosa... soprattutto il "volumetric fog", che e' la cosa che attendo da anni e anni.
Non le ho mai sopportate, e mai le sopprtero', quelle lineacce dritte che si formano quando c'e' la nebbia.
Anche la pioggia realistica, e relativo "dynamic surface wetting", mi attizza.
Bene bene...
Foglia Morta
16-06-2009, 06:41
http://www.nordichardware.com/news,9486.html
AMD showed live DirectX 11 hardware at Computex, although with rigged FPS gage to hide the actual performance. The hardware was performance level, not high-end, and during a recent demonstration of Electronic Arts' Frostbite engine and its DirectX 11 support a few more pieces were revealed. First of all, the new Frostbite engine is up to 20% faster than the old one, and according to AMD it will be far from the only engine to sport DirectX 11 support when things go live.
AMD is very confident about its coming DirectX 11 lineup and even though it used the same performance level hardware, and not high-end, it claimed it was the fastest single-GPU graphics card on the market. They said that the upcoming launch will be even more of a surprise than when they shocked the world with the 800sp RV770 GPU, still vague but very intriguing.
On a side note, the RV8xx code names are still being used, it's just that AMD has shifted focus from the core code names to other, more vague, code names for its products, like Evergreen and so on. And the product names are still undecided. Considering AMD's confidence it may want a fresh start with a new name and perhaps stop climbing the Radeon HD ladder (I.e. maybe go for something different from Radeon HD 5000 series, but most likely fairly similar).
Stefanox92
16-06-2009, 11:00
Ciao a tutti, a breve dovrei farmi il pc nuovo e vorrei sapere la data di uscita di queste vga mi conviene aspettare?
Le nuove ATI DX11 con ogni probabilità usciranno entro settembre...per quelle nVidia si parla di fine anno...io al massimo aspetterei le ATI sperando che escano entro un paio di mesi, aspettare 6 mesi per le nVidia mi sembra troppo :D
Comunque dipende da quanto vuoi spendere per il PC...se vuoi farti un sistema high-end, magari è bene aspettare le 5870 (e magari prenderne un paio :P), se vuoi andare sull'economico, il mese prossimo c'è il taglio dei prezzi di 4870/4890 e ti fai un buon PC che fa girare bene anche i giochi attuali stando molto sotto la soglia dei mille euro :oink:
http://www.nordichardware.com/news,9486.html
AMD showed live DirectX 11 hardware at Computex, although with rigged FPS gage to hide the actual performance. The hardware was performance level, not high-end, and during a recent demonstration of Electronic Arts' Frostbite engine and its DirectX 11 support a few more pieces were revealed. First of all, the new Frostbite engine is up to 20% faster than the old one, and according to AMD it will be far from the only engine to sport DirectX 11 support when things go live.
AMD is very confident about its coming DirectX 11 lineup and even though it used the same performance level hardware, and not high-end, it claimed it was the fastest single-GPU graphics card on the market. They said that the upcoming launch will be even more of a surprise than when they shocked the world with the 800sp RV770 GPU, still vague but very intriguing.
On a side note, the RV8xx code names are still being used, it's just that AMD has shifted focus from the core code names to other, more vague, code names for its products, like Evergreen and so on. And the product names are still undecided. Considering AMD's confidence it may want a fresh start with a new name and perhaps stop climbing the Radeon HD ladder (I.e. maybe go for something different from Radeon HD 5000 series, but most likely fairly similar).
se ci fosse qualche dannato rumor sulle performance sceglierei più velocemente se prendere un 24" @1920 o un 22" @1650....sono ancora in alto mare..:(
Cmq confido nella sorpresa..
Ciao a tutti, a breve dovrei farmi il pc nuovo e vorrei sapere la data di uscita di queste vga mi conviene aspettare?
ti conviene aspettare l'uscita delle dx11 di nvidia, sia per un calo di prezzi, sia per una maggiore visione e acquisto mirato, sia per l'effettiva inutilita' di prenderle a settembre data la mancanza di giochi dx11 (almeno a fine anno). :)
Bastoner
16-06-2009, 11:37
se ci fosse qualche dannato rumor sulle performance sceglierei più velocemente se prendere un 24" @1920 o un 22" @1650....sono ancora in alto mare..:(
Cmq confido nella sorpresa..
Ma vai sul sicuro e prendi un 24, tanto non te ne pentirai....
Stefanox92
16-06-2009, 12:26
Le nuove ATI DX11 con ogni probabilità usciranno entro settembre...per quelle nVidia si parla di fine anno...io al massimo aspetterei le ATI sperando che escano entro un paio di mesi, aspettare 6 mesi per le nVidia mi sembra troppo :D
Comunque dipende da quanto vuoi spendere per il PC...se vuoi farti un sistema high-end, magari è bene aspettare le 5870 (e magari prenderne un paio :P), se vuoi andare sull'economico, il mese prossimo c'è il taglio dei prezzi di 4870/4890 e ti fai un buon PC che fa girare bene anche i giochi attuali stando molto sotto la soglia dei mille euro :oink:
sono sui 1300€ di spesa a sto punto o vado di 4890 o di gtx275 dato che me lo voglio godere d estate sto pc
ti conviene aspettare l'uscita delle dx11 di nvidia, sia per un calo di prezzi, sia per una maggiore visione e acquisto mirato, sia per l'effettiva inutilita' di prenderle a settembre data la mancanza di giochi dx11 (almeno a fine anno). :)
Quoto... ed e' esattamente quello che faro' io
:)
Per sviluppare un engine ci vogliono almeno una 10ina di mesi ormai, ammesso di essere esperti, e per farci poi sopra un titolo altri 2 o 3 anni.
I veri titoli Full DX11 li vedremo non prima del 2011, quelli che usciranno prima saranno giochi DX9/10 con sopra qualche effetto, limitato e sporadico, delle nuove API.
P.S. C'è ne vuole di coraggio per postare immagini di Stalker in una news di quel tipo..
sono sui 1300€ di spesa a sto punto o vado di 4890 o di gtx275 dato che me lo voglio godere d estate sto pc
Se vuoi godertelo quest'estate, vai assolutamente di 4890 Vapor-X, così eviti che ti vada a fuoco :oink:
@ Ratatosk: considerando che è tutta una questione di ritorno economico, sono d'accordo sul fatto che i giochi davvero in DX11 non sono affatto vicini...perché allungare i tempi di sviluppo per sfruttare una tecnologia che avrà per un certo periodo un'utenza strettissima? (cioè i gamer appassionati su PC)
Molto più sensato realizzare giochi in DX 9/10 e metterci il supporto per le DX11 con qualche effettuccio in più...un po' di fumo in omaggio insomma :oink:
se ci fosse qualche dannato rumor sulle performance sceglierei più velocemente se prendere un 24" @1920 o un 22" @1650....sono ancora in alto mare..:(
Cmq confido nella sorpresa..
il 1080P sarà lo standard per qualche annetto, ti suggerisco pure io un 24" se non un 26-27"....per le performance mi pare che già ci siano VGA che ti fanno giocare benissimo a 1920x1200, quindi figurati le prossime ATI e nVidia...:oink:
ghiltanas
16-06-2009, 15:59
Dipende da quanto è necessario modificare rispetto ad un engine DX10 o DX10.1
appunto, visto che le 11 sono un superset delle 10
Athlon 64 3000+
16-06-2009, 16:26
Spero che la eventuale HD 5870 abbia i driver per XP(come GT300) perchè quando uscira penso Windows 7 non sarà ancora sul mercato.
Spero che la eventuale HD 5870 abbia i driver per XP(come GT300) perchè quando uscira penso Windows 7 non sarà ancora sul mercato.
ovvio che avra i driver per Xp, ancora troppe persone lo usano ;)
Su beyond3d si specula sui colori del "di-dietro" del die di Cypress. Solitamente i die ono monocromatici sulla faccia posteriore.
Qualcuno specula sulla mancanza di RBEs/ROPs, e le loro funzioni incorporate in piu' SIMD di ALU. In RV770 il 40% del chip e' occupato dai SIMD, e il 25% da RBEs. Se in Cypress il 65% del chip sarebbe occupato da SIMD con la medesima densita' di RV740 si arriverebbe a 1600sp tranquillamente. (Imho sono 2000sp).
ma si sa qualcosa invece riguardo le nuove schede di fascia media (HD 56xx)? (data d' uscita, prestazioni ecc.) Grazie.
ma si sa qualcosa invece riguardo le nuove schede di fascia media (HD 56xx)? (data d' uscita, prestazioni ecc.) Grazie.
Azzarderei un Q4 2009/Q1 2010 e prestazioni tra una 4870 e una 4890. Prezzo 99-129$.
Mister Tarpone
18-06-2009, 15:55
ATI's Stream needs more work
Nvidia's CUDA is way ahead
Guys from Anandtech had a quick look at ATI's Stream, and the end result is anything but good. ATI's AVIVO Video Converter is a free application and for that AMD received a lot of praises, but unfortunately ATI apparently rushed out with it and it just doesn't work properly.
To make things worse, ATI's Stream fails to live up to its expectations even when using a 3rd party application like Cyberlink's Espresso, which is the one that even AMD recommends. The biggest issue with ATI's Stream are artifacts.
In order to give credit to Cyberlink, Anandtech tried the same video with both the CPU and Nvidia's graphics card and the result speaks for itself. Nvidia certainly leads in this transcoding game, and AMD has a lot of work on its hands if it wants to challenge Nvidia in this game. "The way it's meant to be transcoded" could be Nvidia's next marketing slogan.
ATI's AVIVO Video Converter does bring support for 1080p and 720p H.264 and MPEG-2 output, but that same support becomes meaningless as the end result is just plain poor. To quote Anandtech site :"AVIVO Video Converter, while free, isn't worth the time it takes to download.". Cyberlink's Mediashow Espresso on the other hand lives up to expectations and works fine with Nvidia and even with the CPU.
You can check out the full article here.
http://www.fudzilla.com/content/view/14271/1/
Simedan1985
19-06-2009, 10:33
Ragazzi ,qualcuno sa se ci sarà una scheda 5870x2 gia all'uscità?? oppure ci tocchera aspettare tipo 4/5mesi??
Foglia Morta
19-06-2009, 10:36
Ragazzi ,qualcuno sa se ci sarà una scheda 5870x2 gia all'uscità?? oppure ci tocchera aspettare tipo 4/5mesi??
La strategia è sempre quella... si progetta la gpu per la fascia performance per poi andare di multi-gpu nella fascia superiore. Se si ripete quanto già visto prcedentemente un mese dopo la scheda da $200 - $300 esce quella da $500
La strategia è sempre quella... si progetta la gpu per la fascia performance per poi andare di multi-gpu nella fascia superiore. Se si ripete quanto già visto prcedentemente un mese dopo la scheda da $200 - $300 esce quella da $500
Dalla sua uscita ad oggi il multigpu ne ha fatta di strada...:la scalabilità delle performance è cresciuta incredibilmente ed un utente smaliziato riesce a ricavare il "massimo" con un "minimo" di tweak...
Mi chiedo se la futura vga di cui discutiamo celi qualche novità anche sotto questo versante...
Bastoner
19-06-2009, 13:04
Dalla sua uscita ad oggi il multigpu ne ha fatta di strada...:la scalabilità delle performance è cresciuta incredibilmente ed un utente smaliziato riesce a ricavare il "massimo" con un "minimo" di tweak...
Molte volte purtroppo non basta il tweak....Il multi-gpu é ancora scarso: non é accettabile spendere il doppio per avere in media il 30% in più.
Mi chiedo se la futura vga di cui discutiamo celi qualche novità anche sotto questo versante...
Incrociamo le dita.
Molte volte purtroppo non basta il tweak....Il multi-gpu é ancora scarso: non é accettabile spendere il doppio per avere in media il 30% in più.
Quoto.
Molte volte purtroppo non basta il tweak....Il multi-gpu é ancora scarso: non é accettabile spendere il doppio per avere in media il 30% in più.
Incrociamo le dita.
Non è un po' poco il 30% in più....? Dalle review si direbbe decisamente di più...
Presumo tu stia parlando per esperienza diretta..anche con i titoli degli ultimi 2 anni c'è questo misero 30%?
Bastoner
19-06-2009, 13:23
30, 40 a volte 0....ma di più non credo proprio, forse qualche caso sporadico.
Bastoner
19-06-2009, 13:27
Il problema è che il multi gpu (che sia CF o SLI) necessita di programmazione specifica dei driver, che sostanzialmente è limitata ai titoli da recensione, motivo per cui nelle recensioni le GX2 o X2 o i sistemi SLI/CF sembrano volare e poi alla resa dei conti non lo fanno, non across the board, almeno, che è il passo in avanti che ci aspettiamo prima o poi venga fatto ma di cui non si hanno segnali.
Ecco, spiegazione mirabile. :ave:
Il problema è che il multi gpu (che sia CF o SLI) necessita di programmazione specifica dei driver, che sostanzialmente è limitata ai titoli da recensione, motivo per cui nelle recensioni le GX2 o X2 o i sistemi SLI/CF sembrano volare e poi alla resa dei conti non lo fanno, non across the board, almeno, che è il passo in avanti che ci aspettiamo prima o poi venga fatto ma di cui non si hanno segnali.Oltre al fatto della programmazione (e qui siamo ancora in alto mare...e a me le "pezze" software sinceramente piacciono poco), c'é un problema chiamato cpu.
La maggior parte delle volte la cpu non riesce a generare tutti gli fps che le 2 SV potrebbero macinare.
Infatti é per questo che si usano sempre cpu high end overcloccate nei test SLI/CF.
Oltre al fatto della programmazione (e qui siamo ancora in alto mare...e a me le "pezze" software sinceramente piacciono poco), c'é un problema chiamato cpu.
La maggior parte delle volte la cpu non riesce a generare tutti gli fps che le 2 SV potrebbero macinare.
Infatti é per questo che si usano sempre cpu high end overcloccate nei test SLI/CF.
Ciao.
Guarda, da quello che so io la cpu si "limita" ad inviare le primitive 3d. Mentre la gpu fa il lavoro sporco ovvero macina numeri su quelle primitive. Più che altro secondo me il problema è di tipo software, ovvero se i giochi fossero ottimizzati per bene con le cpu e gpu attuali volerebbero. Spero di non aver detto castronerie.
Attenendosi esclusivamente ai titoli utilizati dalla maggior parte delle review l'incremento è decisamente superiore al 30% di cui discutiamo...non immginavo che eccezion fatta per questi game lo scenario fosse così desolante....
Ovviamente sin quando non avremo una gestione hardware del carico di lavoro delle GPU non potremo che "limitarci" a confidare nella scrittura di driver adeguati..
Quindi anche per questo giro di VGA nessuna nuova...? :(
appleroof
19-06-2009, 18:37
Molte volte purtroppo non basta il tweak....Il multi-gpu é ancora scarso: non é accettabile spendere il doppio per avere in media il 30% in più.
cut
Quoto.
pure io
DarthFeder
19-06-2009, 18:40
pure io
Pienamente d'accordo. La 3870x2 è stata un esperimento, non nego che mi ha dato e continua a darmi enormi soddisfazioni sul mio 22", ma penso che avendo due gpu dovrei ottenere ALMENO il 60% in più, non il 30%...la prossima volta punterò su una singola scheda potente, lasciando perdere questi "esercizi di stile"...
appleroof
19-06-2009, 18:47
Pienamente d'accordo. La 3870x2 è stata un esperimento, non nego che mi ha dato e continua a darmi enormi soddisfazioni sul mio 22", ma penso che avendo due gpu dovrei ottenere ALMENO il 60% in più, non il 30%...la prossima volta punterò su una singola scheda potente, lasciando perdere questi "esercizi di stile"...
quella scheda fu anche l'unica risposta che Ati poteva dare all'epoca alla supremazia prestazionale Nvidia, non è stata solo un esercizio di stile (così come al contrario fu la 7950GX2 vs x19x0xt)
poi come detto è diventata la strategia Ati, cioè fare una gamma completa con un chip, usandone 2 per la top: solo che è una strategia che dal punto di vista puramente prestazionale secondo me non rende, per i motivi ricordati
io ho sempre lasciato perdere il multigpu, sia su scheda singola che con 2 vga, sia Ati che Nvidia e non penso proprio che, almeno fino al momento in cui sarà garantito un 50% medio in più con qualsiasi gioco, mi avvicinerò a queste soluzioni...
EDIT: ovviamente poi bisogna considerare il prezzo, e cioè farsi 2 conti e vedere se la differenza di prezzo tra la più potente single e la dual sia proporzionata all'aumento prestazionale, e oggi come oggi non mi pare sia così nè per Ati che per Nvidia.
Bastoner
19-06-2009, 19:37
quella scheda fu anche l'unica risposta che Ati poteva dare all'epoca alla supremazia prestazionale Nvidia, non è stata solo un esercizio di stile (così come al contrario fu la 7950GX2 vs x19x0xt)
poi come detto è diventata la strategia Ati, cioè fare una gamma completa con un chip, usandone 2 per la top: solo che è una strategia che dal punto di vista puramente prestazionale secondo me non rende, per i motivi ricordati
io ho sempre lasciato perdere il multigpu, sia su scheda singola che con 2 vga, sia Ati che Nvidia e non penso proprio che, almeno fino al momento in cui sarà garantito un 50% medio in più con qualsiasi gioco, mi avvicinerò a queste soluzioni...
EDIT: ovviamente poi bisogna considerare il prezzo, e cioè farsi 2 conti e vedere se la differenza di prezzo tra la più potente single e la dual sia proporzionata all'aumento prestazionale, e oggi come oggi non mi pare sia così nè per Ati che per Nvidia.
Oltre che essere una mossa per cercare di contrastare la potenza di g80, la 3870x2 é stata anche e soprattutto l'inizio di un percorso in cui ATI crede, in cui sta investendo ricerca e risorse. Questo percorso, presumibilmente e auspicabilmente, porterà la tanto attesa svolta del multi-gpu più evoluto, con ram condivisa o doppia gpu in singolo die o altre "fantasticherie" del genere.
quella scheda fu anche l'unica risposta che Ati poteva dare all'epoca alla supremazia prestazionale Nvidia, non è stata solo un esercizio di stile (così come al contrario fu la 7950GX2 vs x19x0xt)
poi come detto è diventata la strategia Ati, cioè fare una gamma completa con un chip, usandone 2 per la top: solo che è una strategia che dal punto di vista puramente prestazionale secondo me non rende, per i motivi ricordati
io ho sempre lasciato perdere il multigpu, sia su scheda singola che con 2 vga, sia Ati che Nvidia e non penso proprio che, almeno fino al momento in cui sarà garantito un 50% medio in più con qualsiasi gioco, mi avvicinerò a queste soluzioni...
EDIT: ovviamente poi bisogna considerare il prezzo, e cioè farsi 2 conti e vedere se la differenza di prezzo tra la più potente single e la dual sia proporzionata all'aumento prestazionale, e oggi come oggi non mi pare sia così nè per Ati che per Nvidia.
non posso che quotare :mano:
appleroof
19-06-2009, 20:16
Oltre che essere una mossa per cercare di contrastare la potenza di g80, la 3870x2 é stata anche e soprattutto l'inizio di un percorso in cui ATI crede, in cui sta investendo ricerca e risorse. Questo percorso, presumibilmente e auspicabilmente, porterà la tanto attesa svolta del multi-gpu più evoluto, con ram condivisa o doppia gpu in singolo die o altre "fantasticherie" del genere.
non credo che nei primissimi tempi avessero sin da subito in mente un percorso da seguire. Cioè non credo sia stata una decisione presa da quando decisero le linee guida del progetto r600 (e tutto quello che è seguito) ma piuttosto sia stata una scelta obbligata (3870x2) che poi si è rivelata buona dal punto di vista prestazionale (con rv770) e ottima dal punto di vista dei costi
ovviamente la verità la sanno solo i capoccia Ati :D, ma analizzando le prestazioni dei chip dx10 Ati e le loro caratteristiche (piccoli) credo la mia ipotesi possa essere anche realistica
Se tutto il frullare intorno alle x2 da parte di AMD porterà alla fine ad un vero leap ahead (vedi l'ironia...) sarà tempo speso bene, anzi benissimo. Il dubbio però che la scelta sia invece solo economica converrà sempre e comunque andare per le "x1".
Non che la scelta economica sia di per sé un male, sia ben chiaro, anzi mi pare una strategia ottima e del tutto condivisibile, consentendo risparmi enormi a livello di ricerca, sviluppo e produzione, con l ovvie ricadute sui prezzi finali, ma quello che un po' tutti i geek vogliono alla fine è vedere un multi-GPU che dia finalmente incrementi prestazionali across the board.
Su quella base si potrà poi discutere, in base alla percentuale di aumento, quanto e se convenga farsi la dual, ma sarà una valutazione serena e senza i rischi di valutare un prodotto sulle recensioni e quindi sui pochi titoli per i quali il prodotto funziona effettivamente come ci si attende e non come il prodotto di classe immediatamente inferiore.
quoto
Attenendosi esclusivamente ai titoli utilizati dalla maggior parte delle review l'incremento è decisamente superiore al 30% di cui discutiamo...non immginavo che eccezion fatta per questi game lo scenario fosse così desolante....
Ma la realtà non è questa, nei Forceware ad esempio ci sono la bellezza di 877 profili e di quest'ultimi quelli per i quali è presente il supporto SLI sono 794
Il calcolo è semplice da farsi, basta aprire il file c:\programdata\nvapps.xml ad esempio con excel, e far contare ad una tabella pivot le occorrenze delle proprietà multichip_dx10_rendering_mode, multichip_rendering_mode e multichip_ogl_options tali per cui il valore è diverso da 0x00000004, valore che che indica al driver di lavorare in modalità Single-Gpu.
Ovviamente sin quando non avremo una gestione hardware del carico di lavoro delle GPU non potremo che "limitarci" a confidare nella scrittura di driver adeguati..
Non credo che l'overhead introdotto dai driver per la distribuzione del carico alle gpu sia ad oggi un problema, ma piuttosto il modo con cui vengono scritti certi engine.
In rete si trova documentazione pubblicata sia da ATI che nVidia, attraverso la quale si spiega sia ad alto livello
http://developer.download.nvidia.com/presentations/2008/GDC/GDC08_AD3D_MGPU.pdf
che ad un livello più basso e tecnico
http://developer.nvidia.com/object/sli_best_practices.html
come scrivere codice scalabile.
Se tutti si adeguassero probabilmente la situazione sarebbe più rosea, ma ahinoi il punto è che fino a quando le soluzioni multi-gpu rimarranno nella fascia enthusiast, probabilmente chi scrive giochi ed ha poco budget a disposizione, non ha un grande interesse che il proprio codice giri al meglio su hardware poco diffuso.
Simedan1985
21-06-2009, 14:57
Quindi Ragazzi diciamo ke le prime single core ,saranno sugli scaffali per settembre??
Quindi Ragazzi diciamo ke le prime single core ,saranno sugli scaffali per settembre??Guarda, se vuoi te lo dico che esce a settembre...
Basta che non mi bastoni se poi non succede :D
Purtroppo abbiamo un range che va da luglio a novembre...
Simedan1985
21-06-2009, 15:17
Guarda, se vuoi te lo dico che esce a settembre...
Basta che non mi bastoni se poi non succede :D
Purtroppo abbiamo un range che va da luglio a novembre...
Grazie ,ma allora esce a settembre?? LOL :ciapet::mano:
ciondolo
22-06-2009, 07:31
se a settembre esce la serie 5000 aspetto. spero con 200 euro o poco più di riuscire a prendere qualcosa che abbia più prestazioni di una 4890. che ne dite?
se a settembre esce la serie 5000 aspetto. spero con 200 euro o poco più di riuscire a prendere qualcosa che abbia più prestazioni di una 4890. che ne dite?
la hd 4890 te la porta a casa con 170€ oggi :asd: (http://www.trovaprezzi.it/prezzo_schede-grafiche_hd4890.aspx)
ciondolo
22-06-2009, 07:55
la hd 4890 te la porta a casa con 170€ oggi :asd: (http://www.trovaprezzi.it/prezzo_schede-grafiche_hd4890.aspx)
il prezzo è buono. ma magari a settembre ci prendo qualcosa di più performante.
almeno spero?
19Dante86
22-06-2009, 08:01
se ti serve la scheda video prendila ora,i giochi in progetto non sembrano avere un motore grafico che sia più pesante,tanto meno che siano in dx11 e non se ne parla non prima di un anno a partire da ora
ghiltanas
22-06-2009, 09:12
beccatevi sta notiziola se nn l'aveta già vista:
http://www.pcgameshardware.com/aid,687818/Radeon-HD-4800-Announced-price-cuts-come-into-effect/News/
sembra che il taglio (qui parla della germania) previsto per inizio luglio sia stato anticipato :)
Athlon 64 3000+
22-06-2009, 09:16
Non è detto che il taglio anticipato delle HD 4800 series sia la conferma che gia il mese prossimo escano le Hd 5800 series,ma sicuramente serve per smaltire le scorte di RV770 e RV790 in attesa di RV870 che penso verranno lanciate a settembre.
ghiltanas
22-06-2009, 09:26
Non è detto che il taglio anticipato delle HD 4800 series sia la conferma che gia il mese prossimo escano le Hd 5800 series,ma sicuramente serve per smaltire le scorte di RV770 e RV790 in attesa di RV870 che penso verranno lanciate a settembre.
no no, infatti io ho riportato la notizia nn per sostenere quella tesi (anche perchè io sostengo che le novità nn vadano lanciate d'estate, ma nel q4)
Drakogian
22-06-2009, 09:29
Guarda, se vuoi te lo dico che esce a settembre...
Basta che non mi bastoni se poi non succede :D
Purtroppo abbiamo un range che va da luglio a novembre...
Sono d'accordo... e leggendo questa news mi sembra più realistico parlare di Ottobre-Novembre:
"TSMC: incremento delle rese a 40nm solo ad Agosto"
http://www.hwupgrade.it/news/skvideo/tsmc-incremento-delle-rese-a-40nm-solo-ad-agosto_29377.html
Athlon 64 3000+
22-06-2009, 09:40
no no, infatti io ho riportato la notizia nn per sostenere quella tesi (anche perchè io sostengo che le novità nn vadano lanciate d'estate, ma nel q4)
Io ho solo voluto dire una mia eventuale previsione.
Solo il tempo protrà dirci quando verà lanciato RV870.
Foglia Morta
23-06-2009, 07:42
http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/
ATI to have 4 DX11 cards in October
A LOT OF people don't understand the train that is heading at Nvidia this fall, most pundits think that the red locomotive only has Cypress trees on it. They would be wrong, there are not one but at least four cards coming in October, possibly a bit before.
Windows 7, aka Me II Sp7, will be greeted by a line of ATI cards ranging from top to low middle. If you thought ATI had only one chip back from the fabs, well, you would be wrong. If you are looking for DX11 cards this fall, you will have a full range to choose from, but they all will have red logos on them.
Contrary to popular fantasies, the Nvidia GT300 GPU has not taped out, but the preparations to do so have started, so think July 1 if all goes well. A little math says that they can't have production parts out before mid-November, assuming they don't need a single respin. That is uheard of, so think February for a green response, at the very least, press stunts aside.
If you know the time frame for how OEMs place sales orders, and how retailers buy, this means Nvidia is basically not an option on retail for any Sp7 boxes, Christmas, and probably for most back to school sales as well. In the mean time, contrary to the curious tales spun at their analyst days, the flow of Nvidia 40nm wafers through TSMC are described as a trickle. A low yielding trickle.
If you are wondering about the laughable performance at Computex from the Nvidia top brass, and their total dodge on questions about future products since then, now you know why. When you don't have products, spin. Four cards vs zero cards, if you are dealing with checklist marketing, there are some things you can't buy with green.
Foglia Morta
23-06-2009, 07:44
http://www.theinquirer.net/inquirer/news/1399999/dx11-amd-weapon
DX11 is AMD's weapon
Battle lines drawn with NV
DX11 WILL be the biggest step of the decade for graphics, AMD's Rick Bergman told the INQUIRER recently.
Bergman, AMD's SVP for platforms told the INQ one would have to go back to DX9 to see a comparable jump in terms of wow factor for engineers and game developers, which is part of the reason the firm is pushing so hard to be first to market with DX11-ready hardware.
Bergman rejected the INQ's claim that only a minimal amount of game titles this year would take advantage of DX11, saying he knew of four to five ISVs working "eagerly" to churn out games and remarking he'd seen "great progress."
"We want to supply hardware to Microsoft and software developers so they can make DX11 games on our hardware first," Bergman told us, adding that it would put his firm in a good position for the future.
Being first would also put AMD ahead of Nvidia, something Daamit has wanted ever since the Goblin pipped it to the post with the DX10 API. "We were kind of fighting from behind, but with DX11 it feels like we're ahead this round," Bergman told us.
It certainly is interesting to see AMD putting most of its energy into DX11 leadership while Nvidia focuses maniacally on GP-GPU with its C for Cuda and Open CL. So even though NV will likely be behind ATI in DX11, ATI lags behind NV in the GP-GPU battle, which is not insignificant in the slightest.
The lines have been drawn and now it is left to the customer to ultimately decide who's approach is right.
Bastoner
23-06-2009, 08:39
http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/
ATI to have 4 DX11 cards in October
A LOT OF people don't understand the train that is heading at Nvidia this fall, most pundits think that the red locomotive only has Cypress trees on it. They would be wrong, there are not one but at least four cards coming in October, possibly a bit before.
Windows 7, aka Me II Sp7, will be greeted by a line of ATI cards ranging from top to low middle. If you thought ATI had only one chip back from the fabs, well, you would be wrong. If you are looking for DX11 cards this fall, you will have a full range to choose from, but they all will have red logos on them.
Contrary to popular fantasies, the Nvidia GT300 GPU has not taped out, but the preparations to do so have started, so think July 1 if all goes well. A little math says that they can't have production parts out before mid-November, assuming they don't need a single respin. That is uheard of, so think February for a green response, at the very least, press stunts aside.
If you know the time frame for how OEMs place sales orders, and how retailers buy, this means Nvidia is basically not an option on retail for any Sp7 boxes, Christmas, and probably for most back to school sales as well. In the mean time, contrary to the curious tales spun at their analyst days, the flow of Nvidia 40nm wafers through TSMC are described as a trickle. A low yielding trickle.
If you are wondering about the laughable performance at Computex from the Nvidia top brass, and their total dodge on questions about future products since then, now you know why. When you don't have products, spin. Four cards vs zero cards, if you are dealing with checklist marketing, there are some things you can't buy with green.
Ammazza :asd:
Athlon 64 3000+
23-06-2009, 08:53
ogni giorno salta fuori un rumors contrastante su il lancio delle gpu dx11 di ATI e adesso si dice che verranno lanciati in ottobre.
Vediamo se sarà vero oppure o no.
Comincio a non capirci più nulla :D
Vedremo che uscirà..
Dany16vTurbo
23-06-2009, 09:19
Visto che hanno problemi a fornire le 4770, non credo che escano a breve, anche perchè non sarebbe una mossa azzeccata visto che si voglioni liberare dei rv770
Andrea deluxe
23-06-2009, 09:55
http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/
Bastoner
23-06-2009, 10:09
http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/
Postato nella pagina precedente.
pioss~s4n
23-06-2009, 10:29
Non credo assolutamente uscirà una nuova scheda video il mese prossimo, il mercato è troppo pigro e riluttante e non ci sono margini di guadagno aggiuntivi condizionati da realese di videgiochi "speciali". Mi ci gioco palla sinistra e palla destra vedremo il tutto a fine anno.
http://www.semiaccurate.com/2009/06/22/ati-have-4-dx11-cards-october/Non si puó battere Foglia :O
Foglia Morta
23-06-2009, 14:29
Quest'altro qua scrive continuamente anche se non sa mai un ca__o
probabilmente ha letto l'articolo postato prima :D
http://www.fudzilla.com/content/view/14351/1/
Not too many details
We've learned that ATI's upcoming mainstream DirectX 11 part, something that we call RV870, should be ready for the Windows 7 launch.
ATI might even launch its card earlier, but if they align the launch with Windows 7, ATI should be launching its DirectX 11 performance card in the second half of October.
This is at least timeframe that ATI plans for its hardware launch and we are quite sure that ATI should launch DirectX 11 before Nvidia. At the same time, we’ve heard that “RV870” is not really a brand new architecture, and that you should expect more shaders, DirectX 11 support but all based on RV770 concepts.
Naturally, the new ATI chip is 40nm which enables higher clocks and more transistors and shaders but so far we don’t have any numbers we can quote.
19Dante86
23-06-2009, 14:33
Non credo assolutamente uscirà una nuova scheda video il mese prossimo, il mercato è troppo pigro e riluttante e non ci sono margini di guadagno aggiuntivi condizionati da realese di videgiochi "speciali". Mi ci gioco palla sinistra e palla destra vedremo il tutto a fine anno.
ci metto anche le mie palle,ti faccio compagnia :asd:
http://www.theinquirer.net/inquirer/news/1399999/dx11-amd-weapon
DX11 is AMD's weapon
Battle lines drawn with NV
DX11 WILL be the biggest step of the decade for graphics, AMD's Rick Bergman told the INQUIRER recently.
Bergman, AMD's SVP for platforms told the INQ one would have to go back to DX9 to see a comparable jump in terms of wow factor for engineers and game developers, which is part of the reason the firm is pushing so hard to be first to market with DX11-ready hardware.
Bergman rejected the INQ's claim that only a minimal amount of game titles this year would take advantage of DX11, saying he knew of four to five ISVs working "eagerly" to churn out games and remarking he'd seen "great progress."
"We want to supply hardware to Microsoft and software developers so they can make DX11 games on our hardware first," Bergman told us, adding that it would put his firm in a good position for the future.
Being first would also put AMD ahead of Nvidia, something Daamit has wanted ever since the Goblin pipped it to the post with the DX10 API. "We were kind of fighting from behind, but with DX11 it feels like we're ahead this round," Bergman told us.
It certainly is interesting to see AMD putting most of its energy into DX11 leadership while Nvidia focuses maniacally on GP-GPU with its C for Cuda and Open CL. So even though NV will likely be behind ATI in DX11, ATI lags behind NV in the GP-GPU battle, which is not insignificant in the slightest.
The lines have been drawn and now it is left to the customer to ultimately decide who's approach is right.
o ogni giorno che passa Nvidia si fa più "nemici" o a questo punto mi viene da pensare che il GT300 sarà un flop pazzesco
Non si puó battere Foglia :O
No assolutamente :O
19Dante86
23-06-2009, 14:43
o ogni giorno che passa Nvidia si fa più "nemici" o a questo punto mi viene da pensare che il GT300 sarà un flop pazzesco
non credo che nvidia resti indietro,avrà già pensato cosa fare,ma voglio vedere quando escono le gt300,solo allora capiremo quanto questo processo produttivo a 40 nm sia davvero un passo avanti,perchè ati sicuramente sfornerà ottime schede ma quando arriva nvidia ati corre ai ripari,perchè purtroppo chi esce dopo fa sempre meglio,quindi io non prenderei subito le prime ati,aspetterei che esca nvidia e che ati risponda.Per rendere chiara l'idea come quando usci 4870 e 260,fecero la 4870 1gb per superare la 260 e nvidia se ne uscì con la 216sp :)
19Dante86
23-06-2009, 14:44
No assolutamente :O
ma io già me la ero immaginata che non sarebbe uscito niente questa estate,si è sentito troppo poco in giro,ma ricordate quando uscirono le hd4000 e le gt200?non si è fatto altro che parlarne 2 mesi in anticipo con primi bench e roba varia,di questi 40nm non si sa praticamente niente,c'è solo un video su internet nella quale non è nemmeno definito niente,è solo per tenere il brodo caldo,ho fatto bene a comprare la vga nuova,se no non potevo giocare fino a chissà quando
non credo che nvidia resti indietro,avrà già pensato cosa fare,ma voglio vedere quando escono le gt300,solo allora capiremo quanto questo processo produttivo a 40 nm sia davvero un passo avanti,perchè ati sicuramente sfornerà ottime schede ma quando arriva nvidia ati corre ai ripari,perchè purtroppo chi esce dopo fa sempre meglio,quindi io non prenderei subito le prime ati,aspetterei che esca nvidia e che ati risponda.Per rendere chiara l'idea come quando usci 4870 e 260,fecero la 4870 1gb per superare la 260 e nvidia se ne uscì con la 216sp :)
ovviamente come prstazioni non potà certo rimanere indietro, almeno non in DX9/10 ;) a meno che non voglia fallire.
piutosto ho paura che il GT300 sia troppo legato al GP-GPU, quindi prezzi da capogiro, e che se il supporto ad ati da parte dei produttori di giochi, grazie a alla spinta verso le dx11 portata da AMD, possa far arrancare le schede verdi lasciano gran parte del mercato in mano ad ATi e in un certo senso "rovinandolo".
Insomma non vorrei che si ripresenti una situazione simile a 8800 Vs 2900 che ha fatto mantenere quasi per 2 anni gli stesi prezzi a Nvidia .
Foglia Morta
23-06-2009, 15:42
Jon Peddie è sempre lo stesso che parlava di ripresa nella vendita di schede grafiche grazie all'introduzione di gpu DX11 nel Q3 e Q4. Per quel che si è letto fino ad oggi il back to school resta il periodo più probabile, almeno per la fascia performance.
http://www.theinquirer.net/inquirer/news/1405804/analysts-predict-nvidia-q2-losses
WALL STREET IS BRACING itself for the next barrage of financial results from the chip industry, with early indications that the CPU market will be doing alright while the GPU market, especially discrete graphics, will take a hit.
Despite an upsurge in optimism over the past few weeks, the world economy is still down in the dumps, with analysts telling us we can expect an average 10 to 15 per cent slump in second quarter results all 'round.
"Q2 will be seasonally down," confirmed graphics guru Jon Peddie, projecting that not until the third quarter will the market for graphics begin a slow recovery.
Nvidia is bitterly aware that although hard times may slow PC sales, the need for CPUs remains healthy with every computer requiring a CPU chip, but not every machine "needs" an expensive discrete GPU.
This is not good news for the Green Goblin's one-trick-pony as NV has no CPU business to fall back on. Also, since historically speaking CPUs have pretty much always made about 20 per cent more in terms of gross margin than GPUs, most analysts agree that having a joint CPU/GPU platform strategy is a must for long term survival.
Peddie, however, reckons that "Integrating the GPU into the CPU means little to nothing to Nvidia", as it is impossible to "physically or wattage-wise put a big enough GPU inside a CPU to make it matter - it will be little more than the IGPs we have now, benefiting primarily from process size."
Either way, we predict that when Nvidia's financials appear somtime in the next few weeks, the numbers probably will have dropped like a brick from the same period last year.
Nvidia is likely to blame everyone but itself for this, despite its ex CFO, Marvin Burkett, famously saying two years ago "As Intel and AMD continue to pursue platform solutions, we may not be able to successfully compete and our business would be negatively impacted." Everything comes true eventually, it seems.
Given how nice Nvidia CEO Jen-Hsun Huang was being to everyone over in Taipei at Computex, fhe INQ predicts Nvidia's quarterly revenues will be down yet again. And we've heard rumours that the shortfall could be as much as about 15 per cent compared with the same quarter last year.
Our crystal ball also tells us it's highly probable the Green Goblin will also cede a bit of market share to AMD, Daamit.
Too bad for Nvidia's head of investor relations, Mike Hara and his infamous custom T-shirt proclaiming "In 10 years time we should be bigger than Intel."
Poor Hara, he must be turning a light shade of, er, green. µ
goldorak
23-06-2009, 15:47
Secondo me le migliori schede a medio termine saranno le GTX 260-275 (anche se non sono dx11) quando subiranno un altro calo di prezzi (diciamo intorno ai 150 €) e le Ati 4890.
Le nuove schede video Ati e Nvidia, serviranno soltanto per spennare i polli.
19Dante86
23-06-2009, 15:54
gt200 e hd4000 avranno supporto dx11 ma solo su 7 e vista,quindi potrai giocarci,ma non è questo il punto,quando ci saranno giochi dx11 queste schede si inginocchieranno di sicuro,quindi spendete un giusto e vediamo cosa salta fuori dai 40nm.
Ati sta andando bene con le vga,grazie ad ati nvidia ha dovuto recuperare abbassando i prezzi,sono sicuro che la stessa cosa accadrà con le vga dx11,ma non mi aspetto niente a breve,e onestamente spero che non cerchino di affrettare i tempi e fare a gara per chi entra prima nel mercato,non voglio vedere porcate
michelgaetano
23-06-2009, 16:35
Secondo me le migliori schede a medio termine saranno le GTX 260-275 (anche se non sono dx11) quando subiranno un altro calo di prezzi (diciamo intorno ai 150 €) e le Ati 4890.
Le nuove schede video Ati e Nvidia, serviranno soltanto per spennare i polli.
Le 4870 1 gb sono a 130 € scarsi :D
19Dante86
23-06-2009, 16:55
Le 4870 1 gb sono a 130 € scarsi :D
con 140 euro ho modificato la mia firma :D 260 :P
goldorak
23-06-2009, 17:00
con 140 euro ho modificato la mia firma :D 260 :P
Certo non pagando (evadendo) l'iva (se hai comprato la scheda come utente finale) e facile avere la GTX260 a 140 €. :p
Ma per noi utenti comuni, il 20% ci tocca pagarlo, ed io le GTX260 a 140 € i.i non le ho ancora viste in giro. :fagiano:
Simedan1985
23-06-2009, 17:02
Ragazzi qundi a titolo quasi definitivo , visto i vari rumors,il range di uscita di queste ati è all'incirca fine settembre meta ottobre???
Simedan1985
23-06-2009, 17:04
Certo non pagando (evadendo) l'iva (se hai comprato la scheda come utente finale) e facile avere la GTX260 a 140 €. :p
Ma per noi utenti comuni, il 20% ci tocca pagarlo, ed io le GTX260 a 140 € i.i non le ho ancora viste in giro. :fagiano:
Io confermo di averne viste anche a 136...ma di media 140/150 avoja quante ce ne sono
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx_260.aspx
O ragazzi si puo postare trovaprezzi ,senza il negozio specifico ,o no??Chiedo scusa e elimino subito se sbaglio
ciondolo
23-06-2009, 17:20
ma è più veloce una gtx260 o una 4870 da 1gb ?
gioco solo ad arma 2 :)
Simedan1985
23-06-2009, 17:24
In un gioco una in un altro l'altra...diciamo si equivalgono
michelgaetano
23-06-2009, 17:47
Io confermo di averne viste anche a 136...ma di media 140/150 avoja quante ce ne sono
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx_260.aspx
O ragazzi si puo postare trovaprezzi ,senza il negozio specifico ,o no??Chiedo scusa e elimino subito se sbaglio
Certo che puoi postare trovaprezzi :)
Per il resto si dovrebbe poter postare link a negozio, a patto di postare anche quello di almeno un altro per non fare pubblicità.
Io confermo di averne viste anche a 136...ma di media 140/150 avoja quante ce ne sono
http://www.trovaprezzi.it/prezzo_schede-grafiche_gtx_260.aspx
O ragazzi si puo postare trovaprezzi ,senza il negozio specifico ,o no??Chiedo scusa e elimino subito se sbaglio
azz....
e pensare che a gennaio......
http://img38.imageshack.us/img38/3435/ahahahah.jpg
:asd::asd:
19Dante86
23-06-2009, 18:20
si ma 140 euro spedita ;)
quanto sara il prezzo al lancio delle schede?
5870x2
5850x2
5870
5850
(se si chiameranno cosi)
inoltre sapete se anche sulle xx50 ci saranno le ddr5?
quanto sara il prezzo al lancio delle schede?
5870x2
5850x2
5870
5850
(se si chiameranno cosi)
inoltre sapete se anche sulle xx50 ci saranno le ddr5?
credo sempre sul filone delle 4xxx
5870x2 500$*
5850x2 400$*
5870 299$
5850 250$
*possibile che non ci siano data l'assenza della concorrenza ;)
grazie, quanto al fatto delle ddr5 su 5850 si sa niente?
grazie, quanto al fatto delle ddr5 su 5850 si sa niente?
beh le DDR5 le metteranno ovunque, ma potrebbero disabilitare degli array di SP un po come fa nvidia per distinguere la gtx260 dalla gtx280
ovviamente IMO
travis^__^
23-06-2009, 19:18
grazie, quanto al fatto delle ddr5 su 5850 si sa niente?
se mettono delle gddr3/4 è perchè devono svuotare i magazzini. Le 5 permettono consumi e temp. più bassi.
<^MORFEO^>
23-06-2009, 19:19
credo sempre sul filone delle 4xxx
5870x2 500$*
5850x2 400$*
5870 299$
5850 250$
*possibile che non ci siano data l'assenza della concorrenza ;)
Secondo ma invece le butteranno fuori proprio per lo stesso motivo!
Nessuna concorrenza e quindi l'obbligo di comprare ATI per avere il top ;)
nVidia insegna :rolleyes:
Secondo ma invece le butteranno fuori proprio per lo stesso motivo!
Nessuna concorrenza e quindi l'obbligo di comprare ATI per avere il top ;)
nVidia insegna :rolleyes:
si ma le x2 verdi si sono sempre fatte attendere e hanno avuto vita abbastanza breve ( oltre a prezzi indecenti)!!!
secondo mè le tengono come asso nella manica contro GT300
poi se le buttano fuori a me non puo che fare piacere, cosi la 5870 cala di prezzo più in fretta :D
<^MORFEO^>
23-06-2009, 19:39
si ma le x2 verdi si sono sempre fatte attendere e hanno avuto vita abbastanza breve ( oltre a prezzi indecenti)!!!
secondo mè le tengono come asso nella manica contro GT300
poi se le buttano fuori a me non puo che fare piacere, cosi la 5870 cala di prezzo più in fretta :D
Si, ma questo perchè le loro soluzioni a gpu singola, rappresentavano già il top in fatto di prestazioni... Almeno fino a quando non uscivano le x2 ATI!
E' da troppo tempo che ATI non risulta essere la migliore in fatto di prestazioni e non penso che si faranno scappare questa opportunità d'esserlo anche se solo per 2 o 3 mesi.. :rolleyes:
Sono comunque tutte supposizioni eh! :D
Si, ma questo perchè le loro soluzioni a gpu singola, rappresentavano già il top in fatto di prestazioni... Almeno fino a quando non uscivano le x2 ATI!
E' da troppo tempo che ATI non risulta essere la migliore in fatto di prestazioni e non penso che si faranno scappare questa opportunità d'esserlo anche se solo per 2 o 3 mesi.. :rolleyes:
Sono comunque tutte supposizioni eh! :D
veramnte fino all'arrivo di GTX295 era le in possesso della coppa con ben 2 VGA( 4850x2 e 4870x2) e poi solo 3 gen fà con X1950 vs 7900gt ;)
Molti rumor fanno presuppore un cambiamento degli array che passerebbero sulle 160 unità invece dei soliti 80, inoltre pare che il resolve\shader sia di ritorno.Il die infatti sembra molto piccolo rispetto al vecchio chip su cui si basa la 4870.
http://img32.imageshack.us/img32/5899/12253837kh9.png
19Dante86
24-06-2009, 00:18
ati a scheda singola non riesce a battere nvidia,è un pò oramai,è costretta a fare dualgpu per stare in testa,solo che quando anche nvidia fa dual gpu ati torna indietro ma ad un prezzo decisamente più basso
Ho fatto un bel lavoro con quella immagine, vé? :DHa fatto il giro d'Italia, e sta per invadere il mondo.
L'universo é il limite :O
per quanto riguarda la data di uscita?
Non per me, come si vede dalla firma :Perfido:OmmioDDio, epico! :rotfl:
E addirittura con la musica del trailer del Signore degli Anelli!
per quanto riguarda la data di uscita?Purtoppo date certe non ce ne sono...solo supposizioni.
Ora si parla di ottobre, ma il range é da luglio a novembre.
Dal primo di luglio all'ultimo dell'anno. Molto probabilmente fra fine settembre e inizio ottobre.
L'impianto audio faceva un po' pena, all'ultima apparizione sono stato più epico, tant'è che ho pure vinto la gara.
La musica è Requiem For A Dream, che è stata usata anche per il trailer del SdA ma è una musica generica da trailer, se cerchi immediate music su youtube ti esce il finimondo :D Ma Requiem for a dream non era di Clint Mansell?
Comunque, geniale :D
Drakogian
24-06-2009, 09:22
credo sempre sul filone delle 4xxx
5870x2 500$*
5850x2 400$*
5870 299$
5850 250$
*possibile che non ci siano data l'assenza della concorrenza ;)
Il prezzo da te ipotizzato della 5850 mi sembra un pò alto e molto vicino a quello della 5870. Per me dovrebbe essere intorno ai 200$
halduemilauno
25-06-2009, 14:29
http://www.hardware-infos.com/news.php?news=3038&sprache=1
Within the Computex at the beginning of this month, AMD already flexed their muscles and presented a running AMD DirectX 11 chip in front of the trade press. As several sources already affirmed, the flagship of the new graphic chip generation probably introduced in October - at least there is a determined launch date in October, but we are not allowed to publish it, yet.
Of course it is no coincidence that AMD's first DirectX 11 generation will come in October. The respective OS Windows 7 is ought to be introduced at October 22 and so give the new computing boasters a solid base from the outset, although we want to point out formally that DirectX 11 will also be used on Windows Vista.
Totally, there are several AMD DirectX 11 chips planned for this year - other than at Nvidia. According to SemiAccurate it shall be four in number, though probably realized on two or three graphic chips (RV870, RV840, R800).
AMD does not give anyone a look into the names. However, it is quite possible that they turn away from the HD-abbreviation, so that the four new cards do not have to launch as HD 5870, HD 5850, HD 5670 and HD 5650. There were also alternations with the code names: Evergreen shall entitle the whole AMD DirectX 11 series, Cypress the common performance chip known as RV870 and Juniper the mainstream chip known as RV840.
Expect further details during the next weeks.
Simedan1985
25-06-2009, 15:47
allìincirca quanti streamprocessor integrerebbero???
Athlon 64 3000+
25-06-2009, 15:54
secondo me esce RV870 viene presentato nella seconda metà di settembre con disponibilità a ottobre in tempo per l'uscita di Windows 7.
Simedan1985
25-06-2009, 16:29
Ho 13 bookmark salvati di toto-SP di questo thread.
Le supposizioni sono andate dai 1000 di Kharonte ai 2000 miei.
Come vedi non sappiamo che pesci prendere :asd:
a
Lo so che lo kiedono 50mila persone ,ma voglio sapè ,voglio sapè.:asd:
pierluigi86
25-06-2009, 16:46
Ho 13 bookmark salvati di toto-SP di questo thread.
Le supposizioni sono andate dai 1000 di Kharonte ai 2000 miei.
Come vedi non sappiamo che pesci prendere :asd:
ingegner Cane, responsabile marketing AMD ha detto : " MILLE MILA !!!"
:D :D
Foglia Morta
25-06-2009, 18:01
una cinquantina di slide di AMD sulle DX11: http://www.slideshare.net/repii/your-game-needs-direct3d-11-so-get-started-now?type=powerpoint
DarthFeder
25-06-2009, 18:03
scusate se magari ne avete già parlato millemila volte, ma io devo ancora capire una cosa...in rete circolano voci sul fatto che le schede dx10.1 siano compatibili con le dx11....è vero? le schede dx10.1 possono usare anche gli effetti dx11?
Foglia Morta
25-06-2009, 18:12
scusate se magari ne avete già parlato millemila volte, ma io devo ancora capire una cosa...in rete circolano voci sul fatto che le schede sx10.1 siano compatibili con le dx11....è vero? le schede dx10.1 possono usare anche gli effetti dx11?
parzialmente e a discrezione dello sviluppatore. Le DX11 sono un super-set delle DX10.1 e DX10.0 . L'unica nuova feature delle DX11 che potrà essere sfruttata anche con le schede DX10 e DX10.1 compliant sono i compute shader , ovviamente una versione più limitata ( CS4 e CS4.1 per schede DX10 e DX10.1 e CS5 per schede DX11 ). E nel caso di scheda ATi c'è anche il tessellatore , però dipende dallo sviluppatore perchè con le DX11 dev'essere più evoluto , praticamente il tessellatore vecchio è un sub-set di quello nuovo, non tutte le operazioni possono essere eseguite... quindi sia per i compute shader 4.0 e 4.1 che per l'uso del tessellatore vecchio dipenderà dallo sviluppatore.
DarthFeder
25-06-2009, 18:15
Emulando via software gli effetti che in una scheda DX11 sarebbero effettuati in hardware, quindi con un calo di prestazioni, certamente.
Quindi con le 5800 viene implementato anche un nuovo shader model...ma come mai, ad esempio, le schede dx10 nono possono "emulare" le 10.1, come invece le 10.1 fanno con le 11? Capisco il salto da 10 a 9 per via dei nuovi tipi di shader usati, ma dx 10 e 10.1 dovrebbero essere molto simili, no?
Ma il "tassellatore" non era tra le features delle 10.1? :confused:
Quindi con le 5800 viene implementato anche un nuovo shader model...ma come mai, ad esempio, le schede dx10 nono possono "emulare" le 10.1, come invece le 10.1 fanno con le 11? Capisco il salto da 10 a 9 per via dei nuovi tipi di shader usati, ma dx 10 e 10.1 dovrebbero essere molto simili, no?
Ma il "tassellatore" non era tra le features delle 10.1? :confused:
inizialmente era tra quelle della DX10 poi nvidia c'ha messo lo zampino e sappiamo come è finita :(
cmq non si puo emulare per il semplice fatto che esiste un solo gioco che "sfrutta" le DX10.1 tutti gli altri sono dei semplici DX9 ricompilati ;)
DarthFeder
25-06-2009, 18:33
inizialmente era tra quelle della DX10 poi nvidia c'ha messo lo zampino e sappiamo come è finita :(
cmq non si puo emulare per il semplice fatto che esiste un solo gioco che "sfrutta" le DX10.1 tutti gli altri sono dei semplici DX9 ricompilati ;)
parli di clear sky?
parli di clear sky?
no di HAWX che comunque è un DX9 ricompilato ;)
DarthFeder
25-06-2009, 19:01
no di HAWX che comunque è un DX9 ricompilato ;)
ANche clear sky supporta le dx10.1...ho visto per internet dei filmati dimostrativi sui nuovi effetti disponibili attivandole con schede ati...
eccolo QUI (http://dailymotion.virgilio.it/video/x5cqqw_stalker-clear-sky-les-nouveautes-de_videogames)
Foglia Morta
27-06-2009, 07:19
http://www.legitreviews.com/article/1001/1/
Simedan1985
27-06-2009, 10:37
http://www.legitreviews.com/article/1001/1/
Foglia,significa che siamo sempre piu vicini e che amd è avanti nel supporto directx11??
Simedan1985
27-06-2009, 10:45
Allora ho letto tutto l'articolo e da quello che ho potuto capire ,oltre che amd è avanti nello sviluppo di dx11 e lo propone sempre piu come un cambiamento radicale , nvidia,che è molto indietro(almeno questo pare) cerca di non dargli tanto peso ,e per questo arriva a penello la notizia dell'ulteriore upgrade di gt200 a 40nm e con supporto dx10.1( giusto per nn fare figure di m++++ con windows 7:D )
Foglia Morta
27-06-2009, 10:55
Foglia,significa che siamo sempre piu vicini e che amd è avanti nel supporto directx11??
Mi sembrano tutte cose già dette al Computex ( più o meno ciò che dicono le slide postate prima ). AMD ha già fornito le schede DX11 agli sviluppatori e cerca di promuoverne il supporto suggerendo agli sviluppatori come trarne vantaggio.
Intanto in Cina si dice che per RV830 le cose procedono bene , per RV870 le fasi di test e packaging sono costose ( $10 ). Le gpu dovrebbero arrivare contemporaneamente ( date non ne ho lette ).
Presumo che RV830 sia Juniper e RV870 sia Cypress.
Allora ho letto tutto l'articolo e da quello che ho potuto capire ,oltre che amd è avanti nello sviluppo di dx11 e lo propone sempre piu come un cambiamento radicale , nvidia,che è molto indietro(almeno questo pare) cerca di non dargli tanto peso ,e per questo arriva a penello la notizia dell'ulteriore upgrade di gt200 a 40nm e con supporto dx10.1( giusto per nn fare figure di m++++ con windows 7:D )
Quello lo dice Fuad :D , quando ci sarà anche qualcuno più attendibile a dirlo allora potrebbe essere un eventualità già più realistica
<^MORFEO^>
27-06-2009, 10:58
Allora ho letto tutto l'articolo e da quello che ho potuto capire ,oltre che amd è avanti nello sviluppo di dx11 e lo propone sempre piu come un cambiamento radicale , nvidia,che è molto indietro(almeno questo pare) cerca di non dargli tanto peso ,e per questo arriva a penello la notizia dell'ulteriore upgrade di gt200 a 40nm e con supporto dx10.1( giusto per nn fare figure di m++++ con windows 7:D )
Ma fino a qualche mese fa nVidia diceva che le dx 10.1 sono assolutamente inutili e che il grosso passo sarà con le dx 11! :asd:
Mi sa che qui le cose servono e non servono un pò in base a come nVidia riesce a sviluppare quella ben determinata tecnologia :rolleyes:
Simedan1985
27-06-2009, 11:09
Quello lo dice Fuad :D , quando ci sarà anche qualcuno più attendibile a dirlo allora potrebbe essere un eventualità già più realistica
Ma in effetti mi sembra troppo strano,cioe poi due mesi dopo ne lanciano ancora una nuova??e poi che fanno la terza revision di 295??
Loll3r_V
27-06-2009, 11:31
ho visto ke faranno la 5870 e la 5870x2 da parte di aMD e penso le prime dx11 ready
Simedan1985
27-06-2009, 13:12
ho visto ke faranno la 5870 e la 5870x2 da parte di aMD e penso le prime dx11 ready
Su questo tutti d'accordo ,il fatto e sapere con esatezza le specifiche e quando usciranno:fagiano:
Foglia Morta
30-06-2009, 07:36
resterà un mistero ciò a cui si stava alludendo :O
http://www.theinquirer.net/inquirer/news/1432013/amd-svp-weighs-graphics-competition
AMD WILL NOT engage Nvidia in a price slashing war, AMD's senior vice president of platforms, Rick Bergman, told the INQ in an exclusive interview.
When asked what AMD was doing to counter Nvidia's strength in the lower end of the channel, Bergman dismissed the issue, saying OEMs preferred AMD's stability and performance per dollar to Nvidia's cut-throat pricing.
"Are we interested in winning share by losing money on every GPU we ship? No," Bergman said. "We're not going to engage in that and we haven't had to."
Bergman maintained that, on a "sustained basis", AMD is actually doing quite well at the lower end of the graphics market, noting, "if you go and look at Dell, HP or Acer's website, you'll actually see a lot of ATI graphics at the entry level."
Bergman added that in the last quarter, AMD had pretty good market share when it came to graphics, smiling acidly as he remarked, "we even made some money. And obviously our competitor [Nvidia] lost a lot of money." Ouch.
When we asked Bergman, who was formerly in charge of interfacing with Intel over graphics, about AMD's other major competitor, the SVP raised an eyebrow and joked, "Who? VIA?" Oh, how we chuckled.
Although Bergman's role with respect to Intel was recently taken over by Matt Skinner, the SVP doesn't think there will be much material difference in the relationship as a result, saying, "we continue to support their [Intel's] platform with our GPUs and vice versa."
As for whether or not AMD is concerned about the advent of Intel's mythical Larrabee, Bergman played it cool, noting, "I don't know what Larrabee is yet, so we're not waiting around." By 'not-waiting-around', Bergman was referring to AMD's new DX11 GPUs, but the firm may have a few more tricks up its sleeve. "A year from now we'll have something new and exciting", he teased, without elaborating further.
That doesn't mean Bergman has entirely dismissed Larrabee as a threat, though. "Intel's a big company and at some juncture they may do graphics right," he told us, quickly adding, "we haven't seen them demonstrate that capability yet." µ
resterà un mistero ciò a cui si stava alludendo :O
http://www.theinquirer.net/inquirer/news/1432013/amd-svp-weighs-graphics-competition
AMD WILL NOT engage Nvidia in a price slashing war, AMD's senior vice president of platforms, Rick Bergman, told the INQ in an exclusive interview.
When asked what AMD was doing to counter Nvidia's strength in the lower end of the channel, Bergman dismissed the issue, saying OEMs preferred AMD's stability and performance per dollar to Nvidia's cut-throat pricing.
"Are we interested in winning share by losing money on every GPU we ship? No," Bergman said. "We're not going to engage in that and we haven't had to."
Bergman maintained that, on a "sustained basis", AMD is actually doing quite well at the lower end of the graphics market, noting, "if you go and look at Dell, HP or Acer's website, you'll actually see a lot of ATI graphics at the entry level."
Bergman added that in the last quarter, AMD had pretty good market share when it came to graphics, smiling acidly as he remarked, "we even made some money. And obviously our competitor [Nvidia] lost a lot of money." Ouch.
When we asked Bergman, who was formerly in charge of interfacing with Intel over graphics, about AMD's other major competitor, the SVP raised an eyebrow and joked, "Who? VIA?" Oh, how we chuckled.
Although Bergman's role with respect to Intel was recently taken over by Matt Skinner, the SVP doesn't think there will be much material difference in the relationship as a result, saying, "we continue to support their [Intel's] platform with our GPUs and vice versa."
As for whether or not AMD is concerned about the advent of Intel's mythical Larrabee, Bergman played it cool, noting, "I don't know what Larrabee is yet, so we're not waiting around." By 'not-waiting-around', Bergman was referring to AMD's new DX11 GPUs, but the firm may have a few more tricks up its sleeve. "A year from now we'll have something new and exciting", he teased, without elaborating further.
That doesn't mean Bergman has entirely dismissed Larrabee as a threat, though. "Intel's a big company and at some juncture they may do graphics right," he told us, quickly adding, "we haven't seen them demonstrate that capability yet." µ
probabilmente alludeva ad una ripresa( magari un rivisitazione del nuovo chip) dopo il flop di gt300 che verrà sparato a prezzi da capogiro :asd:
goldorak
30-06-2009, 08:10
probabilmente alludeva ad una ripresa( magari un rivisitazione del nuovo chip) dopo il flop di gt300 che verrà sparato a prezzi da capogiro :asd:
Gia', la fortuna che i consumatori hanno avuto con la generazione 4850/9800GTX/GT216 etc... non si riproporra' nella prossima generazione di schede DX11.
Questo mi ricorda molto il passaggio dalle DX9 a DX10.
Schede di fascia media DX10 (Ati o Nvidia) che facevano letteralmente schifo e costavano l'ira di dio mentre le schede DX9 andavano da dio pur costando meno.
Chi non ce l'ha e' meglio che si compri una 4890 o una gtx216/275 perche' i tempi DX11 si preanunciano tetri leggasi molto costosi. :D
goldorak
30-06-2009, 08:46
In realtà allude in modo piuttosto evidente al fatto che nVidia si è dissanguata per cercare un prezzo competitivo per una GPU (G200) che ha un rapporto performance/die size del tutto inadeguato a contrastare RV770/RV790.
E allude alla possibilità che la storia continui con la prossima generazione, con un G300 annunciato piuttosto grosso ed un Cypress decisamente piccolo.
Beh guarda, se come e' possibile G300 sara' solo di fascia alta, Nvidia non avra' nessun interesse a proporlo a prezzi "normali" e questo andrebbe bene anche a ATI che avrebbe il suo modello x2 a prezzi equivalenti a quelli Nvidia.
Tanto nella parte medio-bassa del mercato ci sono gia' le varie 4890 e gtx216/275 quest'ultime pare che riceveranno un aggiornamento alle dx10.1.
Insomma quelli che si svendono adesso le 4890 in ottica di aggiornare mi sa che saranno :ciapet: perche' in quella fascia di prezzo non ci sara' niente di niente. O pagherai il top per avere il top o rimarrai con le soluzioni di fascia media di adesso.
Dany16vTurbo
30-06-2009, 08:53
Bhè, la futura "5850-5870" dovrebbe dare prestazioni a livello di una 4890 se non superiori, poi magari costerà molto di più, ma ovvio che chi ha già una 4890 è meglio che se la tenga stretta, visto anche i prezzi ormai crollati....
19Dante86
30-06-2009, 09:08
Bhè, la futura "5850-5870" dovrebbe dare prestazioni a livello di una 4890 se non superiori, poi magari costerà molto di più, ma ovvio che chi ha già una 4890 è meglio che se la tenga stretta, visto anche i prezzi ormai crollati....
se non vanno almeno un 20% in più della 4890 le 5850 se le possono tenere,il supporto dx11 lo avranno tutte le schede 10.1
Foglia Morta
30-06-2009, 09:18
probabilmente alludeva ad una ripresa( magari un rivisitazione del nuovo chip) dopo il flop di gt300 che verrà sparato a prezzi da capogiro :asd:
Alludeva a prodotti AMD... gpu x86 , forse un qualche coprocessore inserito in un architettura multi-core , magari somiglianze con Bulldozer anticipate nelle gpu :boh:
Gia', la fortuna che i consumatori hanno avuto con la generazione 4850/9800GTX/GT216 etc... non si riproporra' nella prossima generazione di schede DX11.
Questo mi ricorda molto il passaggio dalle DX9 a DX10.
Schede di fascia media DX10 (Ati o Nvidia) che facevano letteralmente schifo e costavano l'ira di dio mentre le schede DX9 andavano da dio pur costando meno.
Chi non ce l'ha e' meglio che si compri una 4890 o una gtx216/275 perche' i tempi DX11 si preanunciano tetri leggasi molto costosi. :D
La strategia resta quella: concentrarsi sulla fascia performance. Quindi a rigor di logica , almeno da parte di AMD , ci si può attendere delle buone gpu per prezzo / prestazioni
il supporto dx11 lo avranno tutte le schede 10.1
Cose già ripetute svariate volte... le API successive sono un super-set di quelle precedenti , quindi alcune feature non saranno disponibili su gpu DX10.1
Sto cercando di capire l'utilità di queste directx 10.1.Ma alla fine della fiera servono a qualcosa?
Foglia Morta
30-06-2009, 09:45
Sto cercando di capire l'utilità di queste directx 10.1.Ma alla fine della fiera servono a qualcosa?
Se ne è parlato in passato... se hai voglia di informarti non avrai difficoltà a reperire informazioni.
Foglia Morta
30-06-2009, 09:46
http://www.techradar.com/news/computing-components/graphics-cards/amd-to-support-nvidia-s-cuda-technology--612041
AMD to support Nvidia's CUDA technology?
Nvidia has hinted that it has a project in the works that will enable Nvidia's CUDA technology on AMD GPUs.
At a recent roundtable event, Nvidia's chief scientist Bill Dally explained why a developer would write an app using C with CUDA extensions if it wouldn't work on AMD GPUs.
"In the future you'll be able to run C with CUDA extensions on a broader range of platforms," stated Dally, "so I don't think that will be a fundamental limitation."
Although Dally didn't name AMD outright, he added: "I'm familiar with some projects that are underway to enable CUDA on other platforms."
Differing GPGPU technologies
While both Nvidia and AMD have announced support for open GPGPU standards such as OpenCL and Microsoft's DirectX Compute, both companies also have their own GPGPU technologies.
Nvidia has CUDA, and AMD has Stream. Unsurprisingly, however, Dally reckons that CUDA is the strongest.
"What I've seen them [AMD] offering so far is using the Brook programming language, which we actually developed at Stanford for programming GPUs," added Dally.
Dally used to work at Stanford University before he joined Nvidia, and he claims that "we moved on from Brook because it had a large number of limitations."
"I think CUDA is a far more productive programming environment," he insisted.
Steam plus CAL versus CUDA
An enhanced version of Brook called Brook+ is used in AMD's Stream technology, along with AMD's Compute Abstraction Layer (CAL). Even so, Dally still says that it can't match CUDA.
"I think it [Stream] is missing some of the abstractions that are in CUDA," said Dally, "I think people are far more comfortable with CUDA.
"For evidence of this go to CUDA Zone and look at the hundreds of applications that people have ported over to CUDA, and then look at their [AMD's] corresponding website for GPU computing.
"There are just a handful of things, and they're generally things that are already available in CUDA. CUDA has just got a lot more traction among the people who are programming parallel applications. It's an easier language to use."
Dally was also unconcerned about people buying AMD GPUs instead of Nvidia GPUs if they supported CUDA.
"We don't care whether they [GPGPU apps] are restricted to running on our GPUs or on a broader range of platforms," said Dally. "We produce the best GPUs that there are, so given a fair competitive environment, people will choose our GPUs."
AMD 'no comment'
AMD wouldn't confirm or deny the rumour. Spokesperson Sasa Marinkovic said that "AMD does not comment on rumours or speculation", adding: "AMD does support OpenCL which is an open, cross-platform standard.
"The GPGPU community has been eagerly awaiting an open, industry-wide programming standard and OpenCL provides that standard."
However, Dally says that there are still some benefits to using C with CUDA extensions instead of OpenCL.
"I think most people find that C with CUDA extensions is the most convenient way to write applications," said Dally.
"OpenCL is really a driver interface. It's an API and a set of calls. With a kernel, you basically make an API call with the code for that kernel as a string, and the compilation actually happens in the driver on the fly.
"Being able to write in C for CUDA and running NVCC and pre-compiling your kernel seems to be a more efficient way of operating."
Of course, Nvidia would say that about its own technology, but if AMD also supported C with CUDA extensions on its GPUs, then there would be little reason for developers not to use it.
Plus, if AMD did support CUDA, then CUDA technologies such as GPU-accelerated PhysX would also be available to owners of AMD GPUs.
ghiltanas
30-06-2009, 09:55
per me amd nn ha problemi a proporre soluzioni dx11 in tutte le fasce a prezzi buoni (diciamo quelli di lancio di rv770, forse anche qualcosina meno).
lo stesso nn vale imho per nvidia...sembrerebbe volersi focalizzare su soluzioni di fascia alta con caratteristiche spaventose, che però nn sono scalari e quindi nelle fasce + basse che fa? vende schede nn dx11? sarebbe ridicolo
Dany16vTurbo
30-06-2009, 10:05
In effetti non capisco come nvidia non riesca a diminuire la dimensione del die, colpa del bus?
se non vanno almeno un 20% in più della 4890 le 5850 se le possono tenere
quotone, tra l'altro il passaggio DX10.1-->DX11 non sarà così drammatico come lo scorso salto,tra l'altro mi ricordo che le prime 8800 avevano prestazioni simili alle X1950xt in DX9, e che le architetture ati sono gia parecchie generazioni pronte ad ospitare molte delle features di DX11
ghiltanas
30-06-2009, 11:04
quotone, tra l'altro il passaggio DX10.1-->DX11 non sarà così drammatico come lo scorso salto,tra l'altro mi ricordo che le prime 8800 avevano prestazioni simili alle X1950xt in DX9, e che le architetture ati sono gia parecchie generazioni pronte ad ospitare molte delle features di DX11
ti ricordi male allora...la gtx le distruggeva le altre schede:
http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_index.html
io cmq da queste nuove ati + che le prestazioni, mi aspetto un grande lavori sui consumi
ghiltanas
30-06-2009, 11:06
Il problema per nvidia non è solo questo, con un die grosso il triplo se ha performance anche solo di poco superiori non può vendere al prezzo ideale ma deve farlo al prezzo che amd decide.
siceramente nn ho idea di quanto sarà grosso gt300...però anche se è a 40nm temo sarà un chippone...
Athlon 64 3000+
30-06-2009, 11:17
Adesso se ho capito quando usciranno le ventuali HD 5850 e HD 5870 da quello che dite costeranno molto di più della HD 4800 series?:confused:
Se dovesse succedere scaffale a vita.
ghiltanas
30-06-2009, 11:18
Adesso se ho capito quando usciranno le ventuali HD 5850 e HD 5870 da quello che dite costeranno molto di più della HD 4800 series?:confused:
Se dovesse succedere scaffale a vita.
molto di + dei prezzi attuali o di quelli di lancio? ( no perchè adesso vengono la metà :D )
ti ricordi male allora...la gtx le distruggeva le altre schede:
Vero, ma stiamo parlando della gtx, ossia della top di gamma.
Qui si chiede che una 5850 (non la 5870) vada il 20% in più della 4890, ossia della top di gamma a singolo chip attuale.
Il che non mi pare impossibile, ma se si trattasse di un chip più piccolo, con consumi ridotti e nuove features come le dx11, a mio parere sarebbe anche accettabile se avesse prestazioni paragonabili, per lo meno in dx 9/10.
ghiltanas
30-06-2009, 11:22
Vero, ma stiamo parlando della gtx, ossia della top di gamma.
Qui si chiede che una 5850 (non la 5870) vada il 20% in più della 4890, ossia della top di gamma a singolo chip attuale.
Il che non mi pare impossibile, ma se si trattasse di un chip più piccolo, con consumi ridotti e nuove features come le dx11, a mio parere sarebbe anche accettabile se avesse prestazioni paragonabili, per lo meno in dx 9/10.
infatti, anche per me se la 5850 costasse sui 160-170, con prestazioni simili (magari qualcosina di +), però con consumi piuttosto ridotti, sarebbe già un'ottima soluzione.
Athlon 64 3000+
30-06-2009, 11:23
molto di + dei prezzi attuali o di quelli di lancio? ( no perchè adesso vengono la metà :D )
Intendo i prezzi di lancio della HD 4870 e HD 4850.
michelgaetano
30-06-2009, 11:25
Adesso se ho capito quando usciranno le ventuali HD 5850 e HD 5870 da quello che dite costeranno molto di più della HD 4800 series?:confused:
Se dovesse succedere scaffale a vita.
Non puoi certo aspettarti 5850 a 120 € e 5870 a 180 :stordita:
AMD arriverà prima sul mercato e facilmente conterà su questo per mettere su qualche soldo, viste le politiche aggressive (in termini di prezzo) che ha dovuto portare avanti per competere.
Ad ogni modo, sono abbastanza fiducioso (e qui fu smentito, con 5850 e 5870 a costare 350 e 450 € :sofico:) che i prezzi non saranno troppo alti: dirx 11 o meno, schede come 4870 e gtx 260 rimangono metro di paragone. In tal senso una 5850, che come prestazioni dovrebbe essere lì (credo qualcosina meglio, almeno stando a quanto successo in passato) potrà aggirarsi sui 180-200 euro. Ma per molti, a prezzi più alti rimarrà sullo scaffale, visto che delle dirx11 al momento possiamo infischiarcene. Tutto questo senza considerare Nvidia, che dovrebbe ovviamente abbattere i costi delle proprie schede per infastidire Ati.
ghiltanas
30-06-2009, 11:28
io so solo che + di 200 euro nn voglio + spendere...faccio presto aprendere anche una delle soluzioni attuali a prezzo stracciato, ed andare avanti alla grande per un pò
Athlon 64 3000+
30-06-2009, 11:28
Non puoi certo aspettarti 5850 a 120 € e 5870 a 180 :stordita:
AMD arriverà prima sul mercato e facilmente conterà su questo per mettere su qualche soldo, viste le politiche aggressive (in termini di prezzo) che ha dovuto portare avanti per competere.
Ad ogni modo, sono abbastanza fiducioso (e qui fu smentito, con 5850 e 5870 a costare 350 e 450 € :sofico:) che i prezzi non saranno troppo alti: dirx 11 o meno, schede come 4870 e gtx 260 rimangono metro di paragone. In tal senso una 5850, che come prestazioni dovrebbe essere lì (credo qualcosina meglio, almeno stando a quanto successo in passato) potrà aggirarsi sui 180-200 euro. Ma per molti, a prezzi più alti rimarrà sullo scaffale, visto che delle dirx11 al momento possiamo infischiarcene. Tutto questo senza considerare Nvidia, che dovrebbe ovviamente abbattere i costi delle proprie schede per infastidire Ati.
Scusate se non mi sono spiegato bene,ma non intendevo i prezzi attuali delle HD 4850 e HD 4870,ma parlavo dei prezzi di lancio delle schede appena citate.
La mia paura che una eventuali HD 5870 possa venire a costare anche 350 euro che personalmente li ritengo ora come ora davvero troppi.
ti ricordi male allora...la gtx le distruggeva le altre schede:
http://www.hwupgrade.it/articoli/skvideo/1597/nvidia-geforce-8800-gtx-un-passo-nel-futuro_index.html
si erano 2 schede ben diverse ma non me le ricordavo così distanti infatti.....
http://www.hwupgrade.it/articoli/skvideo/1657/nvidia-geforce-8800-gts-ora-con-320-mbytes_8.html
io cmq da queste nuove ati + che le prestazioni, mi aspetto un grande lavori sui consumi
non credo probabilmente puntano a soluzioni con Clock di def 1GHz (per la top di gamma), gia la 4770 è un bel mostriciattolo in OC ma "scalda" parecchio
tantè che ha un connettore a 6poli.
Come consumi i 40nm non hanno soddisfatto le aspettative (almeno non su 4770) e a meno di un rivoluzionario DownClock in IDLE, stile ATT, mi aspetto consumiallineati con la corente generazione( 150W def, 170W OC 20%)
ghiltanas
30-06-2009, 11:34
Scusate se non mi sono spiegato bene,ma non intendevo i prezzi attuali delle HD 4850 e HD 4870,ma parlavo dei prezzi di lancio delle schede appena citate.
La mia paura che una eventuali HD 5870 possa venire a costare anche 350 euro che personalmente li ritengo ora come ora davvero troppi.
io ad essere sincero sti prezzi nn me li aspetto proprio, visto che per ati nn si dovrebbe trattare di un cambiamento troppo drastico...
io penso 170 circa per la 5850, e 220-230 massimo per la 5870
io ad essere sincero sti prezzi nn me li aspetto proprio, visto che per ati nn si dovrebbe trattare di un cambiamento troppo drastico...
io penso 170 circa per la 5850, e 220-230 massimo per la 5870
si ma non al lancio diciamo dopo un mesetto ti do ragione, ma la situazione iniziale sarà sempre quella
x2 >450€
top 299€
med 250€
michelgaetano
30-06-2009, 11:40
Scusate se non mi sono spiegato bene,ma non intendevo i prezzi attuali delle HD 4850 e HD 4870,ma parlavo dei prezzi di lancio delle schede appena citate.
La mia paura che una eventuali HD 5870 possa venire a costare anche 350 euro che personalmente li ritengo ora come ora davvero troppi.
Sì, quando ho postato non avevi ancora specificato ^^"
io ad essere sincero sti prezzi nn me li aspetto proprio, visto che per ati nn si dovrebbe trattare di un cambiamento troppo drastico...
io penso 170 circa per la 5850, e 220-230 massimo per la 5870
Io credo che Cypress, nella sua implementazione più performante, sarà destinato ad un prezzo di 300€ circa.
Ricordate mica i prezzi di 4850 e 4870? Se non erro la 4850 stava sui 170-180 all'"inizissimo", per poi iniziare a scendere dopo poco. Io credo saremo grossomodo lì per questa, se le prestazioni sono allineate ( o leggermente superiori) a 4870/260. La 4870 non ricordo quanto costasse :stordita: Anche io comunque mi attenderei sui 300 euro per Cypress: dovrebbe essere la gpu singola più potente sul mercato e unica (per potenza) con dirx 11. Qualcosa glielo vorranno tirare in termini di guadagno.
si ma non al lancio diciamo dopo un mesetto ti do ragione, ma la situazione iniziale sarà sempre quella
x2 >450€
top 299€
med 250€
La x2 dovrebbe arrivare dopo o sbaglio? 250 per una 5850 son troppi se non va fortissimo.
michelgaetano
30-06-2009, 11:50
La mia ipotesi veniva da questo ragionamento. La 4870 è stata presentata a 300$ in condizioni di forte concorrenza, mi aspetto che Cypress arrivi fino a 400$ proprio per l'assenza della stessa.
Fin'ora arrivava dopo. Poco dopo ma pur sempre dopo.
Sì, e fortunatamente il cambio non sembra essere 1:1 al momento, quindi il 400 -> 300 ci starebbe.
Ad ogni modo, magari mi sbaglio, credo che ad AMD non convenga sparare cifre troppo alte (oltre quei 300, tanto per dire), x2 a parte: quella che le si presenta è una buona chance di guadagnare quote di mercato su Nvidia. Prezzi alti okay, ma pur sempre umani (vedi la 4850 a 170-180 € che comunque in molti si potevano permettere e potrebbero nel caso di una 5850) le dovrebbero permettere questo :stordita: Se riuscissero in particolare per la 5850 a stare vicino alla soglia psicologica dei 150, credo possano vendere molto.
Personalmente dovrei cambiare vga verso metà novembre (AC II :asd:), dovrebbero (stando ai rumors almeno) aver già lanciato per quella data o sbaglio?
Foglia Morta
30-06-2009, 12:05
Personalmente dovrei cambiare vga verso metà novembre (AC II :asd:), dovrebbero (stando ai rumors almeno) aver già lanciato per quella data o sbaglio?
Magari si ripeteranno e faranno annusare il supporto alle DX11 per poi toglierlo al volo con la prima patch :asd:
michelgaetano
30-06-2009, 12:16
Magari si ripeteranno e faranno annusare il supporto alle DX11 per poi toglierlo al volo con la prima patch :asd:
LOL :sofico:
Non ho sentito nulla a riguardo, però chissà...
Simedan1985
30-06-2009, 12:38
Ragazzi,cmq oltre al discorso prezzo ,che è importaante ma cmq secondo me si riallinea nel giro di due tre sett,la cosa importante c ome gia detto da qualcuno è che temp e consumi scendano ....io gioco a 100 gradi con la x2,inoltre se magari si farà il salto che c'è stato dalla serie 3+++ alla 4++++ sarà un successo
La x2 dovrebbe arrivare dopo o sbaglio? 250 per una 5850 son troppi se non va fortissimo.
si vole scrivere dollari è ho scritto euro xD
Foglia Morta
30-06-2009, 12:49
http://en.expreview.com/2009/06/30/xfx-creates-a-new-brand-in-mainland-china.html
XFX, a division of PINE Technologies which offers an array of video cards and accessories, has now created a new brand “Jing Tai” in mainland China. The new brand is expected to contain ATI-based graphics cards.
Simedan1985
30-06-2009, 12:57
http://en.expreview.com/2009/06/30/xfx-creates-a-new-brand-in-mainland-china.html
XFX, a division of PINE Technologies which offers an array of video cards and accessories, has now created a new brand “Jing Tai” in mainland China. The new brand is expected to contain ATI-based graphics cards.
Le vendessero in cina...
michelgaetano
30-06-2009, 12:59
Le vendessero in cina...
Le venderanno appunto in cina :asd:
ghiltanas
30-06-2009, 15:45
io nn sono molto d'accordo sulla nn concorrenza...c'è eccome e viene anche dalle loro schede attuali.Ok che la 5870 sarà la scheda singola + veloce, ma se devo giocare a qualche conversione da console, una gtx260 o una 4870 a poco + di 100 euro andranno + che bene, e sinceramente spendere 300 euro per una scheda video mmm
gaarasama
30-06-2009, 16:50
iscritto, dopo aver preso l'ottima 4770 non vedo l'ora arrivino le nuove 40nn
yossarian
30-06-2009, 18:01
In effetti non capisco come nvidia non riesca a diminuire la dimensione del die, colpa del bus?
Nel caso di G200 sicuramente, e comunque è divenuto evidente come i limiti del crossbar nvidia vadano ben oltre l'ampiezza verso la memoria.
Di certo c'è anche che il progetto è molto diverso e alla ricerca delle massime prestazioni possibili, scelta che evidentemente non sta pagando e credo che non pagherà nemmeno nel prossimo futuro, per una enorme lista di svantaggi.
D'altra parte una strategia non può essere tatticamente stravolta, ma solo aggiustata, quindi se ci sarà un cambio di strategia gli effetti non si potranno vedere prima del successore di G300...
non è colpa del bus ma del numero di transistor e della tipologia di circuiti. I chip nVidia hanno circuiti di controllo, trasmissione, scheduling, ecc, molto più complessi e che richiedono molti più transistor. I circuiti logici sono quelli più soggetti a disturbi e, quindi, la densità risulta minore rispetto ai chip ATi.
In GT200 non sono riusciti ad integrare neppure il chip NVIO.
io nn sono molto d'accordo sulla nn concorrenza...c'è eccome e viene anche dalle loro schede attuali.Ok che la 5870 sarà la scheda singola + veloce, ma se devo giocare a qualche conversione da console, una gtx260 o una 4870 a poco + di 100 euro andranno + che bene, e sinceramente spendere 300 euro per una scheda video mmm
io mi auguro che sia la scheda video piu veloce del mercato riuscendo a battere la gtx295, in modo tale da avere una 587'0x2 ultrapotente per riuscire a giocare bene ai nuovi giochi dx11 con una grafica da paura......la x2 mia al lancio :sofico:
Io invece con una 4870 1GB posso ritenermi soddisfatto.
Aspetteró quando le dx11 saranno piú mature, e magari se AMD sforna un X6 rev.D0 l'anno prossimo cambio vga + processore...forse, perché credo che il 955 + 4870 siano giá troppo per me :D
michelgaetano
30-06-2009, 18:56
Io invece con una 4870 1GB posso ritenermi soddisfatto.
Aspetteró quando le dx11 saranno piú mature, e magari se AMD sforna un X6 rev.D0 l'anno prossimo cambio vga + processore...forse, perché credo che il 955 + 4870 siano giá troppo per me :D
Beh chiamala scarsa cuna 4870 1 gb... qui tiriamo avanti con g92 :sofico:
ghiltanas
30-06-2009, 19:03
Beh chiamala scarsa cuna 4870 1 gb... qui tiriamo avanti con g92 :sofico:
:mano:
ps The_SaN l'accoppiata che hai mi inspira molto
non è colpa del bus ma del numero di transistor e della tipologia di circuiti. I chip nVidia hanno circuiti di controllo, trasmissione, scheduling, ecc, molto più complessi e che richiedono molti più transistor. I circuiti logici sono quelli più soggetti a disturbi e, quindi, la densità risulta minore rispetto ai chip ATi.
In GT200 non sono riusciti ad integrare neppure il chip NVIO.
I cicuiti logici di cui parli aumentano proporzionalmente all'aumento delle unità di calcolo..?
Ovvero..supposto (pura suggestione) che la prossima GPU "ricalcasse" l'architettura di GT200 ad un aumento delle unità di calcolo corrisponderebbe un necessario e proporzionale aumento dei transitor dedicati al controllo...?
Mister Tarpone
30-06-2009, 20:05
http://www.pcgameshardware.de/aid,688632/Test-Ati-Radeon-HD-4730-von-Sapphire/Grafikkarte/Test/
pensavo fosse uno scherzo e invece eccola... prestazioni simili a 4770 e 4830...un minimo + lenta
ora manca la 4790...avevo letto su pcgh che forse usciva pure questa :stordita:
michelgaetano
30-06-2009, 20:18
http://www.pcgameshardware.de/aid,688632/Test-Ati-Radeon-HD-4730-von-Sapphire/Grafikkarte/Test/
pensavo fosse uno scherzo e invece eccola... prestazioni simili a 4770 e 4830...un minimo + lenta
ora manca la 4790...avevo letto su pcgh che forse usciva pure questa :stordita:
C'è la recensione su Techpowerup.
Va come una 4830/9800 gt, non da nulla in overclock e consuma quanto una 4870. Per quanto mi riguarda è inutile. Preferisco spednere 10 euro in più (90) e prendermi una 4850, che va di più e consuma meno.
yossarian
01-07-2009, 00:44
I cicuiti logici di cui parli aumentano proporzionalmente all'aumento delle unità di calcolo..?
Ovvero..supposto (pura suggestione) che la prossima GPU "ricalcasse" l'architettura di GT200 ad un aumento delle unità di calcolo corrisponderebbe un necessario e proporzionale aumento dei transitor dedicati al controllo...?
mantenendo la stessa architettura si; se come si vocifera si dovesse trattare di un'architettura di tipo MIMD e non di una ibrida MIMD - SIMD, la complessità dei circuiti logici aumenterebbe ancora in proporzione rispetto allo spazio occupato dalle unità di calcolo.
mantenendo la stessa architettura si; se come si vocifera si dovesse trattare di un'architettura di tipo MIMD e non di una ibrida MIMD - SIMD, la complessità dei circuiti logici aumenterebbe ancora in proporzione rispetto allo spazio occupato dalle unità di calcolo.
Quindi nel caso specifico, giusto per esemplificare, essendo qualsivolgia processo di produzione (40-32-28-XXnm) cmq "affetto" dalla necessità di aumentare i circuiti di controllo parallelamente alle unitò di calcolo...i vantaggi "verrebbero" sempre compensati dal problema densità...salvo cambiare architettura...
Questo problema giustificherebbe i rumor che vedono come prossima mossa Nvidia il passaggio di G200 a 40nm...in tal caso, trattandosi di una architettura colladauta, il boost prestazionale potrebbero ottenerlo da un aumento lieve degli SP e delle frequenze..evitando tutti i problemi di cui sopra..
ghiltanas
01-07-2009, 10:41
gt200 sarà anche collaudato, ma va rivisto se vogliono implementare le dx10.1
yossarian
01-07-2009, 11:08
Quindi nel caso specifico, giusto per esemplificare, essendo qualsivolgia processo di produzione (40-32-28-XXnm) cmq "affetto" dalla necessità di aumentare i circuiti di controllo parallelamente alle unitò di calcolo...i vantaggi "verrebbero" sempre compensati dal problema densità...salvo cambiare architettura...
Questo problema giustificherebbe i rumor che vedono come prossima mossa Nvidia il passaggio di G200 a 40nm...in tal caso, trattandosi di una architettura colladauta, il boost prestazionale potrebbero ottenerlo da un aumento lieve degli SP e delle frequenze..evitando tutti i problemi di cui sopra..
non è corretto dire che qualsivoglia pp sarebbe "affetto" dalla necessità di aumentare i circuiti di controllo. Si tratta di una scelta progettuale: la possibilità di effettuare le operazioni di scheduling in HW con l'ILP gestito interamente da controller dà la possibilità di avere una maggiore efficienza complessiva ed una "quasi" trasparenza nei confronti del codice da eseguire. Gli svantaggi principali sono: una notevole complessità circuitale che riduce lo spazio per le unità di calcolo; una maggior sensibilità dei circuiti ai disturbi (con la necessità di ridurre la densità circuitale) e una flessibilità quasi prossima allo zero (ad esempio l'impossibilità di implementare nuove feature come quelle previste dalle dx10.1 senza una sostanziosa revisione di parte del chip o l'impossibilità di implementare la precisione di calcolo fp64 senza unità dedicate, ecc).
non è corretto dire che qualsivoglia pp sarebbe "affetto" dalla necessità di aumentare i circuiti di controllo.......
Intendevo a parità di architettura e quindi di scelta progettuale.... :)
Quindi anche implementare le DX 10.1 non può che avvenire attraverso una sostanziosa revisione della GPU...decideno di fare questa revision perchè passare da DX10 a DX10.1 piuttosto che DX11..? (A me) Sembra strano eppure i rumor che circolano paventano questa possibilità..
TnX a lot.. ;)
monkey.d.rufy
01-07-2009, 16:20
iscritto
Foglia Morta
04-07-2009, 10:59
Per quel che riguarda le rese produttive secondo me ha ragione quest'articolo.
Fino a poco tempo fa le 4770 che si potevano trovare su trovaprezzi erano poche , mi pare una ventina , guardando ora ce ne sono 49. Se più shop la offrono vuol dire che riescono a procurarsela più facilmente rispetto a prima. Anche Newegg tempo fa ne aveva solo 2 o 3 listate , ora ne ha 8.
http://www.semiaccurate.com/2009/07/03/tsmc-40nm-process-good-go/
THERE HAS BEEN a lot of false information floating around about TSMC and their 40nm process. It ranged from the overly optimistic to hopelessly wrong, so lets clear the air, it is OK now.
As of early this week, the same sources that told us that the process initially had problems, then later confirmed the culprit, have told SemiAccurate that TSMC has given the technical thumbs up to their revised 40nm process. Wafers can go in any time now, in volume, with only one caveat. That caveat is that the process is good to go if you did your homework. We know ATI did, and we are pretty sure Altera did as well, but did Nvidia run enough to shake out the bugs? We will know in late September when the GT210 and GT220 are either available, or talk again turns to how one should focus on the things available now like they did at analyst day.
It should take between 10 and 12 weeks to get silicon back, so with a July 1 date for pies in the oven, a first half of September date for pies with pretty pictures on them is not unreasonable. Add a week or two for assembly, test and shipping, and you have parts.
If all goes well, we could see Juniper and Cypress at retail in September, easily beating the promised Windows Me II SP7 launch date. GT300 is currently slated for a mid-July tapeout, but unless the stars align, no less than 16 mid-level miracles occur, and most of the luck in Silicon Valley converges on NV HQ, you won't see it this year.
That brings us to the next topic, the quality of information going around, and the so called 'analysts'. I used to have a very dim view on the species, but then I looked a bit deeper and discover there were two sub-species. These are the technically aware Analysus financii technicus and the terminally clueless Analysus financii dinnerguestus. Sadly, the gene that differentiates those sub-species are closely linked to those that control loudness and promiscuity.
The clueless species had a classic showing last week shortly after TSMC gave the all-clear to partners, and that was reprinted all over the net, particularly in some more technically reputable journals. It was taken from a dubious source to begin with and then not credited by the analyst. The short story is that some claim yields are still below 30% on the TSMC 40nm process.
If you have even the vaguest clue as to how semiconductors are made, you will know that a process does not have yield, and it never will. It is like someone stating the frequency of Intel semiconductors as a whole, it makes no sense. Yield is process AND chip dependent. Things like leakage, defect density, and what any given IC's targets are all determine yield, not some magical property of the process.
For any given process, you can design an IC that has anywhere between 0% and 100% yield. Claiming that a process has a yield of X is akin to standing on a hill shouting "I am ignorant" to anyone who will listen. No volume part that SemiAccurate is aware of has ever run as low as 30% yields on the TSMC 40nm process, period.
In the end, the take home message is that the TSMC 40nm process is now just peachy now if you did your homework, and initial wafers are either in, or will be, in days. You should see chips with lower layer counts on the market in early September, followed by more complex parts a few weeks later. Things are finally back on track.S|A
io non sto capendo un cacchio, potreste dirmi + o - a grandi linee quando usciranno rv8xx e gt3xx? (so che magari è nella pagina dietro, ma mi scoccio di leggere + di 200 pagine...)
ghiltanas
06-07-2009, 08:52
Le nuove AMD entro il 22 Ottobre (si parla di 4 schede diverse basate su 2 chip).
Per G300 quasi sicuramente si parla dell'anno prossimo
entro il 22 ottobre perchè devono uscire prima di seven? :D
ghiltanas
06-07-2009, 09:22
L'hanno detto in una conference call ufficiale, che la nuova lineup sarà già sul mercato all'uscita di Seven. Visto che è una società quotata non ho alcun dubbio in proposito, anzi dalle ultime notizie sembra più settembre che ottobre, ma stando larghi comunque non vedo possibile uno slittamento oltre il 22 ottobre :)
bene, cosi a in quel periodo mi faccio il pc nuovo e ci metto rv870 :Perfido: (se nn costa un botto, vista l'assenza di concorrenza, e se nvidia nn assicura all'ultimo un'uscita rapida di gt300)
Bastoner
06-07-2009, 09:26
bene, cosi a in quel periodo mi faccio il pc nuovo e ci metto rv870 :Perfido: (se nn costa un botto, vista l'assenza di concorrenza, e se nvidia nn assicura all'ultimo un'uscita rapida di gt300)
Solo un anno fa sembrava impossibile....Incredibile come cambiano le cose eh?
ghiltanas
06-07-2009, 09:34
Ad oggi sembrerebbe che nVidia abbia preso la decisione di rispondere a Cypress con un G200@40nm+DX10.1, ma si sa come vanno queste cose, non c'è verso di distinguere il FUD dal vero, almeno per quanto riguarda il FUD che una logica può anche averla...
per me quella nn è una risposta. stanno per essere lanciate le dx11 e cosa fai? aggiorni la serie attuale alle 10.1? al limite per un upgrade del pc che ho firma, ma solo se costano molto poco.
ghiltanas
06-07-2009, 09:37
Solo un anno fa sembrava impossibile....Incredibile come cambiano le cose eh?
è si...nvidia si è un pò troppo adagiata sugli allori, o forse ha sottovalutato ati..cmq aspettiamo e vediamo per nn dare giudizi affrettati
Bastoner
06-07-2009, 09:54
è si...nvidia si è un pò troppo adagiata sugli allori, o forse ha sottovalutato ati..cmq aspettiamo e vediamo per nn dare giudizi affrettati
Bhè, ormai siamo in luglio, Seven è alle porte e con esso le Dx11 e una nuova generazione di vga ATI è pronta al lancio. Su NVidia l'unica cosa certa é che purtroppo NON sarà in grado di competere con ATI almeno fino al Q1 2010, e questo non mi sembra un giudizio affrettato. L'assenza di competitor non è mai una cosa bella, perchè frena il progresso e non giova ai prezzi. Buon per ATI che avrà la possibilità di immagazzinare un pò di liquidità e direi che ne ha molto bisogno.
L'unica cosa che spero é che i vertici NVidia facciano saltare qualche testa, tipo quelle che hanno concepito la fallimentare prassi del renaming, o quelle che in questi anni hanno scelto di frenare l'evoluzione tecnologica nel campo del gaming anzichè spendere risorse nel progresso (tipo la mancata adozione delle dx10.1 e lo sciacallaggio ad esempio in Assassin's Creed, mentre invece propagandava lo strepitoso valore aggiunto di una piattaforma quasi inutile - Physix - e un'altra buona , per carità, ma di nicchia - CUDA.
Foglia Morta
06-07-2009, 09:57
Ad oggi sembrerebbe che nVidia abbia preso la decisione di rispondere a Cypress con un G200@40nm+DX10.1, ma si sa come vanno queste cose, non c'è verso di distinguere il FUD dal vero, almeno per quanto riguarda il FUD che una logica può anche averla...
hwupgrade ha sbagliato l'articolo... non farci affidamento.
L'idea di un G200@40nm+DX10.1 viene da questo articolo: http://www.hwupgrade.it/news/skvideo/da-nvidia-presto-un-aggiornamento-di-gt200-a-40-nanometri_29426.html
in cui l'autore ha capito male da quest'altro articolo: http://www.fudzilla.com/content/view/14383/1/
in quanto per GT200 generation Fuad intende le gpu derivate dalla tecnologia di GT200 ( così come lo sono G94 , G96 e G98 per G92 ) e le schede saranno GT210 e GT220 ( stessi codename usati anche nell'articolo di hwupgrade ).
e infatti Vr-Zone: http://vr-zone.com/articles/nvidia-partners-get-ready-40nm-g210--gt-220-cards/7272.html?doc=7272 spiega che quei 2 codename sono le schede grafiche desktop , non le gpu, equipaggiate dalle stesse gpu entry level presentate tempo fa per il mercato mobile.
michelgaetano
06-07-2009, 10:13
hwupgrade ha sbagliato l'articolo... non farci affidamento.
L'idea di un G200@40nm+DX10.1 viene da questo articolo: http://www.hwupgrade.it/news/skvideo/da-nvidia-presto-un-aggiornamento-di-gt200-a-40-nanometri_29426.html
in cui l'autore ha capito male da quest'altro articolo: http://www.fudzilla.com/content/view/14383/1/
in quanto per GT200 generation Fuad intende le gpu derivate dalla tecnologia di GT200 ( così come lo sono G94 , G96 e G98 per G92 ) e le schede saranno GT210 e GT220 ( stessi codename usati anche nell'articolo di hwupgrade ).
e infatti Vr-Zone: http://vr-zone.com/articles/nvidia-partners-get-ready-40nm-g210--gt-220-cards/7272.html?doc=7272 spiega che quei 2 codename sono le schede grafiche desktop , non le gpu, equipaggiate dalle stesse gpu entry level presentate tempo fa per il mercato mobile.
Cercando un attimo di fare mente locale...
Quindi Nvidia con cosa intende rispondere nella fascia high-high end? Semplici cali di prezzo delle sue schede? :confused:
Perchè se come dai link il refresh a 40nm + dx 10.1 (ma qualcuno mi illumina sull'utilità delle 10.1? Voglio dire, c'è modo di far andare le dirx 11 anche qui? Allora avrebbe senso :stordita:) riguarda solo la fascia medio bassa, di fatto non ci saranno (fino a cambi di programma) nuove schede per competere al meglio nella fascia alta. Se RV870 lancia a settembre, facciamo anche inizio ottobre, e Nvidia ad inizio anno, abbiamo un buco di 3 mesi se non oltre, che non mi sembra proprio poco.
michelgaetano
06-07-2009, 10:19
Le DX10.1 servono a fare offload sulla GPU del carico di Aero in W7. Se non le hai, nel mercato low end, sei fuori.
Ah perfetto, allora ci sta tutta la cosa (sarebbe ridicolo altrimenti).
Sono però davvero perplesso sul "buco" nella fascia alta, con 7 a fare da traino e nuove schede che dovrebbero ottenere agilmente il primato sul mercato, non vedo come possano vendere in quel periodo, se non abbassando i prezzi (e non costava tanto GT200?).
Le DX10.1 servono a fare offload sulla GPU del carico di Aero in W7. Se non le hai, nel mercato low end, sei fuori.
Ah perfetto, allora ci sta tutta la cosa (sarebbe ridicolo altrimenti).
Sono però davvero perplesso sul "buco" nella fascia alta, con 7 a fare da traino e nuove schede che dovrebbero ottenere agilmente il primato sul mercato, non vedo come possano vendere in quel periodo, se non abbassando i prezzi (e non costava tanto GT200?).
Fatemi capire, allora io che ho ordinato ieri la gtx 260 nvidia che supporta solo le dx 10 ho fatto una cretinata??:(
ghiltanas
06-07-2009, 10:22
Fatemi capire, allora io che ho ordinato ieri la gtx 260 nvidia che supporta solo le dx 10 ho fatto una cretinata??:(
dipende (cmq nn è il thread giusto questo). se avevi urgenza e l'hai presa a un ottimo prezzo no, perchè nn è che con le schede dx11 la gtx260 scade :asd:
Grazie alla recente guerra dei prezzi tra ATI-Nvdia l'utenza interessata al PC-gaming è stata cmq "dotata" di GPU assolutamente performanti..mai come oggi il gaming dovrebbe far faville...eppure :(
E' paradossale che si disponga e si disporrà di un parco Hardware GPU assolutamente "sottosfruttato"...dove sono sti ca**o di titoli?
L'interesse di Nvidia per CUDA ed il GPGPU potrebbe essere il frutto dell'analisi di questa situazione..:" il gaming sul PC è destinato all'estinzione troviamo nuovi mercati.!"
michelgaetano
06-07-2009, 10:23
Fatemi capire, allora io che ho ordinato ieri la gtx 260 nvidia che supporta solo le dx 10 ho fatto una cretinata??:(
Assolutamente no, nel senso che la tua vga aero lo distrugge. Ma su schede di fascia bassa, dove la potenza fa schifo (:stordita:) sgravare aero è importantissimo.
Più in generale comunque io avrei aspettato nella tua situazione. Voglio dire, mi pare dicessi che giocavi ancora bene con la scheda vecchia. Fin quando si è coperti, conviene aspettare le nuove uscite, anche solo per eventuali cali di prezzo (e una 260 si svaluta di più di una 9600 GT, perchè il suo prezzo è più alto). Non credo minimamente nelle dirx 11 nel breve periodo, però quando RV870 uscirà fuori i prezzi delle vecchie per forza di cose scenderanno. E se interessano le prestazioni, magari si guarda anche a RV870 stesso.
Insomma, almeno per quanto mi riguarda farò così :stordita:
ghiltanas
06-07-2009, 10:26
Grazie alla recente guerra dei prezzi tra ATI-Nvdia l'utenza interessata al PC-gaming è stata cmq "dotata" di GPU assolutamente performanti..mai come oggi il gaming dovrebbe far faville...eppure :(
E' paradossale che si disponga e si disporrà di un parco Hardware GPU assolutamente "sottosfruttato"...dove sono sti ca**o di titoli?
L'interesse di Nvidia per CUDA ed il GPGPU potrebbe essere il frutto dell'analisi di questa situazione..:" il gaming sul PC è destinato all'estinzione troviamo nuovi mercati.!"
qualcosa dovrebbe uscire nel q4: bioshock 2, battlefield nuovo, stalker nuovo (speriamo bene con questo), assassin's creed 2, mafia 2 (inizio 2010)..qualcosa c'è dai, anche senn moltissimo
michelgaetano
06-07-2009, 10:27
qualcosa dovrebbe uscire nel q4: bioshock 2, battlefield nuovo, stalker nuovo (speriamo bene con questo), assassin's creed 2, mafia 2 (inizio 2010)..qualcosa c'è dai, anche senn moltissimo
Il punto è che anche questi titoli (oddio su mafia e stalker non so) non sembrano tutta questa incredibile pesantezza. Cioè per bioshock il motore è ancora quello (e parliamo dell'unreal engine 2.5, porca miseria...), battlefield non può per forza di cose essere pesante. Io attendo AC 2 :D
qualcosa dovrebbe uscire nel q4: bioshock 2, battlefield nuovo, stalker nuovo (speriamo bene con questo), assassin's creed 2, mafia 2 (inizio 2010)..qualcosa c'è dai, anche senn moltissimo
Infatti...nulla che sia in grado di farci gridare al miracolo...eccezion fatta per STALKER e battlefield parliamo di titoli multipiattaforma.. :(
Per giocare con questi game una 4850 è più che sufficiente!
ghiltanas
06-07-2009, 10:29
Il punto è che anche questi titoli (oddio su mafia e stalker non so) non sembrano tutta questa incredibile pesantezza. Cioè per bioshock il motore è ancora quello (e parliamo dell'unreal engine 2.5, porca miseria...), battlefield non può per forza di cose essere pesante. Io attendo AC 2 :D
ah si se parlate di pesantezza ok. infatti sarà da valutare i costi di rv870, se andrà fuori budget si vedrà cmq scendere molto le soluzioni attuali, che già costano poco e offrono tanto :)
michelgaetano
06-07-2009, 10:31
ah si se parlate di pesantezza ok. infatti sarà da valutare i costi di rv870, se andrà fuori budget si vedrà cmq scendere molto le soluzioni attuali, che già costano poco e offrono tanto :)
Sì infatti. Ma i prezzi iniziali imho saranno altini. Io credo di aspettare fino a novembre, vorrei poter sperare in una 5850 (o come si chiamerà) sui 150 €, ma non so quanto sia da pazzi il semplice sperarci :stordita:
Nella peggiore si prende una HD 4890/gtx 275 a prezzi stracciati, che tirano di brutto :D
ghiltanas
06-07-2009, 10:35
Sì infatti. Ma i prezzi iniziali imho saranno altini. Io credo di aspettare fino a novembre, vorrei poter sperare in una 5850 (o come si chiamerà) sui 150 €, ma non so quanto sia da pazzi il semplice sperarci :stordita:
Nella peggiore si prende una HD 4890/gtx 275 a prezzi stracciati, che tirano di brutto :D
si ma tirano di brutto anche la bolletta :( ...è per questo che io aspetto le nuove serie, nn solo per le prestazioni, ma soprattutto per i consumi. spero abbiano lavorato molto bene sotto quest'aspetto
Direi di no. Se hai preso una 260 di certo non hai sotto un Sempron :D
L'utilità delle DX10.1 in Aero di Seven è tanto più importante quanto meno la CPU è performante, soprattutto se single core, in quanto scarica la CPU stessa di lavoro per farlo fare alla GPU (che in sistemi low-end, diciamocelo, non fa nulla).
Ah ok, ora capito perfettamente il tuo discorso di prima, in pratica le dx 10.1 o superiore sono utili nella fascia bassa per togliere il carico alle cpu, quindi consumi e temperature inferiori anche solo per l'uso di seven dove aereo ne fà molto uso!
Ovviamente (come da firma) non ho un sempron..:asd: quindi io questi poblemi non ne ho, però fino alla scelta ero in dubbio se prendere un ati (anche per le dx 10.1) o appunta quest'ultima..ma i driver nvidia non mi hanno mai deluso, anzi hanno ringiovanito anche la mia gloriosa (ex) 9600 gt!
Ora Visto che sono niubbo, vi sono sostanziali differenza tra le dx 10 e dx 10.1 e le più nuove dx 11 che dovrebbero inporsi a fine hanno??
Grazie ancora
ghiltanas
06-07-2009, 10:42
5€ l'anno di differenza? Solo marketing :rolleyes:
nn mi garba vedere schede che consumano watt su watt, anche per un discorso + globale. Bisogna cercare di ottimizzare bene
Le DX10.1 servono a fare offload sulla GPU del carico di Aero in W7. Se non le hai, nel mercato low end, sei fuori.
Su Linux è possibile utilizzare Compiz e quindi effetti video stratosferici che Aero si sogna con una qualsivoglia VGA che supporta le openGL a dovere...nel mio caso una GeForce2 MX ...
Le richieste di win sono volgarmente funzionali alla vendita del hardware...
nn mi garba vedere schede che consumano watt su watt, anche per un discorso + globale. Bisogna cercare di ottimizzare bene
Quoto alla grande..oggi più che mai ogni nostra azione dovremmo valutare il suo impatto ambientale..
1)ho 3 slots pci-e e mi chiedevo se sara possibile fare un crossfire di 870 e aggiungerci la mia 3870 che fara la fisica o qualche calcolo elementare?
2)se si, si deve collegare anch'essa con il ''ponticello''?
3)devono essere livellate le frequenze?
4)basandomi sul fatto che tempo fa sentii che una funzionalita di dx10,1 era supportata a livello hw da 2000...le schede attuali 4000 (cosi come 3000 e meno per le 2000) gia hanno un qualche supporto di almeno qualche funzionalita dx11?
1)ho 3 slots pci-e e mi chiedevo se sara possibile fare un crossfire di 870 e aggiungerci la mia 3870 che fara la fisica o qualche calcolo elementare?
2)se si, si deve collegare anch'essa con il ''ponticello''?
3)devono essere livellate le frequenze?
4)basandomi sul fatto che tempo fa sentii che una funzionalita di dx10,1 era supportata a livello hw da 2000...le schede attuali 4000 (cosi come 3000 e meno per le 2000) gia hanno un qualche supporto di almeno qualche funzionalita dx11?
1) si puoi fare il 3-CrossFire, no non puoi utilizzare la 3870 per la fisica ( solo nvidia supporta la fisica)
2) si ci vuole il ponticello
3) non non devono essere livellate come frequenze, in automatico quelle più veloci si adattano a quella più lenta.
4) nonsi sa nulla
in conclusione il 3-CrossFire non ha senso e non porta vantaggi anzi se nono schede diverse porta solo svantaggi ;)
micropunta
06-07-2009, 12:09
Su Linux è possibile utilizzare Compiz e quindi effetti video stratosferici che Aero si sogna con una qualsivoglia VGA che supporta le openGL a dovere...nel mio caso una GeForce2 MX ...
Anche se non sono un fanatico degli effetti grafici, devo dire che compiz, magari con l'aggiunta di qualche plugin interessante è irraggiungibile per chiunque :sofico: , ed è gestibile anche da schede video entry level o igp tranquillamente, peccato che dopo un pò siano cose che vengono a noia :Prrr:
Athlon 64 3000+
06-07-2009, 17:19
http://www.pcgameshardware.com/aid,689222/Colin-McRae-Dirt-2-PC-will-support-DirectX-11/News/
http://www.pcgameshardware.com/aid,689222/Colin-McRae-Dirt-2-PC-will-support-DirectX-11/News/
:sperem: :sperem: :sperem:
il primo era molto bello e la possibilità di un miglioramento dello sfuttamento delle CPU multicore è una notizia fantastica.
Grande AMD finalmente un po' di giochi che ti supportano decentemente
Dany16vTurbo
06-07-2009, 18:03
:sperem: :sperem: :sperem:
il primo era molto bello e la possibilità di un miglioramento dello sfuttamento delle CPU multicore è una notizia fantastica.
Grande AMD finalmente un po' di giochi che ti supportano decentemente
Già, il primo titolo aveva un motore grafico spettacolare (come grid), anche con filtri altissimi risultava sempre leggero :eek:
Scusate la domanda, se supporterà le dx11, ci sarà la possibilità anche di giocare con dettagli dx10 giusto? :fagiano:
Già, il primo titolo aveva un motore grafico spettacolare (come grid), anche con filtri altissimi risultava sempre leggero :eek:
Scusate la domanda, se supporterà le dx11, ci sarà la possibilità anche di giocare con dettagli dx10 giusto? :fagiano:
si essendo un "porting" è sempre un DX9 ricompilato quindi credo proprio di sì
un motore puro DX11 non lo vedremo prima della prossima generazione di console ;)
intendo che alla fine i motori sono scritti direttamente in DX9 e poi che vengono rattoppati aggiungendo qualche effetto Dx10 (ora) e Dx11(credo in futuro) e letteralmente Ricompilati ;)
appleroof
06-07-2009, 19:07
intendo che alla fine i motori sono scritti direttamente in DX9 e poi che vengono rattoppati aggiungendo qualche effetto Dx10 (ora) e Dx11(credo in futuro) e letteralmente Ricompilati ;)
se non sbaglio parli di high level shader language, possibile da prima delle dx9 se non sbaglio (non sono un tecnico, se qualcun altro più esperto può mi corregga)
non sono nemmeno sicuro che i giochi dx9 che giustamente definisci "rattoppati" dx10 (condivido pienamente questa descrizione :stordita: ) siano stati riscritti in quel modo, ma ripeto qui occorrerebbe uno più ferrato nella materia di me
certo che se dobbiamo vedere "finti" giochi dx11 come i "finti" dx10 che abbiamo visto finora stiamo a posto... :rolleyes: l'unico lato positivo è che la scheda che ho nel case avrebbe ancora taaaanta longevità :stordita:
michelgaetano
06-07-2009, 19:15
Già, il primo titolo aveva un motore grafico spettacolare (come grid), anche con filtri altissimi risultava sempre leggero :eek:
Leggerissimo non proprio, all'uscita era un dannato mattone :asd:
Dany16vTurbo
06-07-2009, 19:16
Leggerissimo non proprio, all'uscita era un dannato mattone :asd:
Bhè, appena uscito ci giocavo tranquillamente con AA8x e non è che avevo chissà che computer....:)
appleroof
06-07-2009, 19:16
5€ l'anno di differenza? Solo marketing :rolleyes:
verissimo...
nn mi garba vedere schede che consumano watt su watt, anche per un discorso + globale. Bisogna cercare di ottimizzare bene
...ma anche questo :D
p.s.: io bacerei a terra se nelle prox vga performance ed entusiasth non sia tanto il full a non aumentare, cosa cmq difficile se si vuole uber prestazioni anche a pp più basso, quanto per l'idle: mi auguro che trovino il modo di spegnere parti di chip in modo da consumare davvero poco -meno di oggi- per la maggior parte del tempo, e da questo punto di vista Nvidia nonostante lo sbandierato powerplay Ati, oggi mi sembra obiettivamente un pelo avanti...speriamo che entrambe si diano da fare da questo punto di vista
michelgaetano
06-07-2009, 19:19
Bhè, appena uscito ci giocavo tranquillamente con AA8x e non è che avevo chissà che computer....:)
Io a suo tempo con un E6600 (purtroppo @ default), 8800 gtx e 2 gb ram, tutto al massimo e AA andava da schifo... Poi boh :stordita:
Tornando in tema... Col lancio che sembrerebbe arrivare a settembre, secondo voi quando inizierà a girare qualche sample su cui speculare? :stordita:
appleroof
06-07-2009, 19:26
Io a suo tempo con un E6600 (purtroppo @ default), 8800 gtx e 2 gb ram, tutto al massimo e AA andava da schifo... Poi boh :stordita:
Tornando in tema... Col lancio che sembrerebbe arrivare a settembre, secondo voi quando inizierà a girare qualche sample su cui speculare? :stordita:
dipende sempre da quanto decidono in casa Ati (come sempre al lancio di un prodotto completamente nuovo Nvidia, Intel, Amd per le cpu.....:D ) tenuto conto di tutte le circostanze..
Io a suo tempo con un E6600 (purtroppo @ default), 8800 gtx e 2 gb ram, tutto al massimo e AA andava da schifo... Poi boh :stordita:
Tornando in tema... Col lancio che sembrerebbe arrivare a settembre, secondo voi quando inizierà a girare qualche sample su cui speculare? :stordita:
con la tua identica config due anni fa mi andava benissimo ( pero' e6600 occato a 3ghz, di default è quasi una bestemmia) :D
goldorak
07-07-2009, 09:43
p.s.: io bacerei a terra se nelle prox vga performance ed entusiasth non sia tanto il full a non aumentare, cosa cmq difficile se si vuole uber prestazioni anche a pp più basso, quanto per l'idle: mi auguro che trovino il modo di spegnere parti di chip in modo da consumare davvero poco -meno di oggi- per la maggior parte del tempo, e da questo punto di vista Nvidia nonostante lo sbandierato powerplay Ati, oggi mi sembra obiettivamente un pelo avanti...speriamo che entrambe si diano da fare da questo punto di vista
Mah io non ho grandi sperenze in tal senso. Yossarian tempo fa aveva detto il motivo per cui le schede ATI non erano cosi' parsimoniose col risparmio energetico come le Nvidia. Quest'ultime tra l'altro aiutate dal fatto di disporre di un chip 2d dedicato, quindi e' piu' semplice spegnere la componente 3d quando non la si usa. Se la prossima soluzione Nvidia inglobera' tutto nel chippone unico e quindi il 2d verra' a tutti gli effetti fatto da circuiti 3d credo che non ci sara' piu' quel risparmio energetico tipico delle GTX260 etc...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.