View Full Version : [THREAD UFFICIALE] Aspettando ATi HD 2900XT
IMHO delle GDDR3 a 1.6 Ghz sono anche troppo :eek:
Ricordiamoci che il bus è a 512 bit e che la banda è equivalente a una scheda a 256 bit con memorie a 3.2 Ghz :sofico:
Oppure una GTS con memorie a 2.56 Ghz o una GTX con mem a 2.13 Ghz
A me non sembra poco, anche se ATI probabilmente userà memorie più veloci per sboroneggiare :sborone: e si terrà la cartuccia delle GDDR4 a 2 e passa Ghz per delle versioni future.
Tutto IMHO e scusate i probabili errori di conto ;)
Quoto in pieno ;)
TecnoWorld8
30-03-2007, 16:36
ok, ma io continuo a dire che dati i 6/7 mesi di ritardo su nvidia, ati dovrà controbattere la futura 8800Ultra. quindi non basta eguagliare o superare di poco la gtx...
Sempre che bisogna vedere le reali prestazioni di R600: magari non ce ne sarà bisogno. Dai su, un altro mesetto lo potete anche aspettare :sofico:
Sempre che bisogna vedere le reali prestazioni di R600: magari non ce ne sarà bisogno. Dai su, un altro mesetto lo potete anche aspettare :sofico:
mi sà tanto che molti quà non ce la faranno ad aspettare un'altro mesetto:D
Athlon 64 3000+
30-03-2007, 18:18
http://www.fudzilla.com/index.php?option=com_content&task=view&id=362&Itemid=1
R600 is not louder than the X1950XTX. We can confirm this first hand as we heard it more than once.
It is not loud at least not louder than the Radeon X1950XTX. The big cooler doesn't rotate that fast and keeps the card cool at 800 MHz.
This is a hell of a task but the big cooper part is doing its job. Benchmarking R600 completely doesn’t make any sense as the driver is super immature and a lot of applications are crushing all the time.
The good news is that the super late R600 is not loud.
halduemilauno
30-03-2007, 18:24
dai su un pò di ottimismo.
http://www.overclockingpin.com/24419%20screenie.jpg
;)
dai su un pò di ottimismo.
http://www.overclockingpin.com/24419%20screenie.jpg
;)
bestia che CPU score :eek:
un kent a 4.8Ghz :ops:
anche la GTX non scherza 865/2400 :eek:
TecnoWorld8
30-03-2007, 19:37
il fatto che nn sia rumorosa (se è vero) è interessante. vuol dire che eventualmente la si può occare un po', rendendola eventualmente "più rumorosa" :D
dai su un pò di ottimismo.
http://www.overclockingpin.com/24419%20screenie.jpg
;)
E allora? Quello è il risultato di 2 schede in SLI. :asd:
http://service.futuremark.com/compare?3dm06=1570432
http://www.ripping.org/benchmarks.php?act=graphicscores&graphic=3DMark06
a me piu che altro sfugge il nesso...thread di r600--->3d mark della\e 8800gtx. vabbè :asd:
Secondo me era solo un modo per risollevare il morale del thread, per far vedere dei bei punteggi nei bench, visto che per un altro mese non si potrà vedere nulla di serio su R600: in fondo lo ha fatto per voi :asd: :asd:
TecnoWorld8
31-03-2007, 02:18
per far vedere un punteggio che sarà raggiunto da una configurazione non overclockata tra un annetto circa ;)
in un futuro ancora più "remoto", credo che R700 e G100 su nehalem a 8 cores potranno arrivare sui 30000 punti senza grossi problemi, data l'evoluzione media delle GPU e CPU, ma saremo ben oltre la metà del 2008.
finito l'off topic, torniamo ad attendere R600, va...
a me piu che altro sfugge il nesso...thread di r600--->3d mark della\e 8800gtx.
appunto. che non capiti più.
Dai che riuscite come l'altra volta a chiudere pure questo di thread. Ma dovete impegnarvi di più...
Athlon 64 3000+
31-03-2007, 13:27
Dai che riuscite come l'altra volta a chiudere pure questo di thread. Ma dovete impegnarvi di più...
Quoto!
Quindi basta con gli off topic.
davide155
31-03-2007, 15:11
Insomma ragazzi la data ufficiale rimane sempre ad aprile?
In questi giorni non sono riuscito a seguire molto il topic......
E poi un'altra cosa.....sono uscite le nuove immagini su quella tech demo della fisica di r600? quella con l'acqua.......eh?
sempreio
31-03-2007, 15:16
non so se sono off-topic ma volevo sapere quando hwupgrade avrà a disposizione la scheda per testarla?:stordita:
La presentazione ufficiale è prevista per l'ultima settimana di aprile, qualche pagina indietro c'era un articolo riportato con la notizia (non ricordo se 24/25 o 27/28): prima di quella data non credo si saprà nulla di ufficiale ;)
halduemilauno
31-03-2007, 19:09
La presentazione ufficiale è prevista per l'ultima settimana di aprile, qualche pagina indietro c'era un articolo riportato con la notizia (non ricordo se 24/25 o 27/28): prima di quella data non credo si saprà nulla di ufficiale ;)
23/24.
;)
Athlon 64 3000+
31-03-2007, 20:06
23/24.
;)
ottima notizia.:)
Ormai l'attesa stà per finire e finalmente si saprà tutto su R600.
TecnoWorld8
31-03-2007, 20:41
il forse è d'obbligo, per un prodotto rimandato di quasi un anno :)
in ogni caso, non ho ancora capito se si chiamerà X2800 o X2900. A rigor di logica dovrebbe essere la prima, essendo il prodotto d'esordio di una nuova serie al top di gamma (come fu per x800 e x1800), ma data l'attesa magari potrebbero saltare subito al 2900, se per caso avessero apportato tweaks significativi al chip...vedremo!
il forse è d'obbligo, per un prodotto rimandato di quasi un anno :)
in ogni caso, non ho ancora capito se si chiamerà X2800 o X2900. A rigor di logica dovrebbe essere la prima, essendo il prodotto d'esordio di una nuova serie al top di gamma (come fu per x800 e x1800), ma data l'attesa magari potrebbero saltare subito al 2900, se per caso avessero apportato tweaks significativi al chip...vedremo!
il nome credo sia l'ultima preoccupazione :asd:
E poi un'altra cosa.....sono uscite le nuove immagini su quella tech demo della fisica di r600? quella con l'acqua.......eh?
no purtroppo :(
TecnoWorld8
31-03-2007, 20:48
relativamente...penso che potrebbe essere un'indicazione della "generazione" e durata del chip. Se si chiamerà x2800 ci sarà MOLTO plausibilmente una 2900 dietro l'angolo, dato il ritardo sul mercato e il tradizionale avvicendamento di mezza carriera delle GPU. Se invece si chiamerà 2900 potrebbe essere un segno di "generazione" successiva a quanto originariamente pianificato, che potrebbe avere giusto una revision di minor entità (2950) ma non essere totalmente soppiantato dopo pochi mesi...
non so se ho chiarito il mio punto di vista
relativamente...penso che potrebbe essere un'indicazione della "generazione" e durata del chip. Se si chiamerà x2800 ci sarà MOLTO plausibilmente una 2900 dietro l'angolo, dato il ritardo sul mercato e il tradizionale avvicendamento di mezza carriera delle GPU. Se invece si chiamerà 2900 potrebbe essere un segno di "generazione" successiva a quanto originariamente pianificato, che potrebbe avere giusto una revision di minor entità (2950) ma non essere totalmente soppiantato dopo pochi mesi...
non so se ho chiarito il mio punto di vista
sono d'accordo con te, ma credo che se stiamo qui a menarcela anche per il nome diventiamo scemi :D
TecnoWorld8
31-03-2007, 20:52
hai ragione al 100% :)
uff, raramente ho atteso con così tante "aspettative" dell'hw...chissà come mai...
Dopo tanta fuffa made in Fudzilla una lunga intervista fatta ad un vero portavoce di ATI: Vijay Sharma Director della sezione Discrete Graphics di AMD-ATi. La pubblica PC Games Hardware.
Alcuni passaggi sono molto interessanti. ;)
PCGH: Hi Vijay. AMD decided not to launch R600 officially at Cebit. Can you give us a clue, what was your reason to do or not do so?
Vijay Sharma [Director of Desktop Discrete Product Marketing at AMD]: Sure. Our initial plan as you're probably aware was to do an NDA press media event this week just before Cebit at Amsterdam. And we realized that we had two derivative products of R600 coming. So we had a whole family of R600-products coming within 45, 60 days of each other. So we said rather than have the press come to Amsterdam before Cebit and then another month later do another event lets talk about the whole family at once and include desktop and mobile products as well. So we have a very strong story and we choose to hold on the R600 and have a combined event later in april.
PCGH: So that means the reason for the delay is not R600 not being ready...
Vijay Sharma: No, no. The R600 schedule hasn't changed. So we're building boards, we're on the same hardware-schedule that we've always been. We're just not launching the product until we launch the family.
PCGH: Given the problems your competitor has with Vista drivers what is your feeling about your Vista drivers for R6x-Generation.
Vijay Sharma: We are very confident in our Vista drivers. We had our first Vista driver that was WHQL-certified I believe in November...
PCGH: So even before Vista...
Vijay Sharma: Even before Vista we had WQHL-certification. So our driver is in great shape. And the other point is we are actually on our second generation of DX10.
PCGH: You're talking about Xbox360-GPU...
Vijay Sharma: Yes, Xbox360 was our first generation and we're on our second generation and you can see our lead in the drivers. This isn't the first time we're doing this. We have a lead, we have established technology, so we're very confident.
PCGH: A couple of days ago there was a blog entry by one of the FSX developers stating that they obviously had a R600 to experiment with and that its geometry shader performance was much higher than G80s. Can you comment on that?
Vijay Sharma: I haven't heard of that specific instance or example...
PCGH: He didn't give any numbers...
Vijay Sharma: No, but you know even in our [...] I can tell you in our X1000 series architecture our predicted branch performance in shader model 3 is seven times more efficient than our competitors. So we've done things in our architecture (and we continue to) that allows for maximum efficiency in executing shader code. And so I'm not surprised that the geometry shader is working very well in R600.
PCGH: So are you hinting at that branching performance or granularity is somehow another key to the speed of geometry shader or was it just an anology.
Vijay Sharma: Oh, it was just an analogy.
PCGH: Okay. What could possibly slow down a geometry shader. Were could save transistors to support geometry shaders but to make it slower. Is it a matter of cache size or... Because since you've got a unified shader architecture every shader has to have the same capability - so it's not possible that you've just got fewer geometry shader units.
Vijay Sharma: Honestly I don't know how it's going to play out. Because Geometry Shaders - i believe - is a fairly new construct - it didn't exist in DX9, does in DX10. And I think we'll have to see and wait for ISVs to use geometry shaders extensively and then we'll see were the limitations and where the advantages are. So i don't know what it is today.
PCGH: Early drafts of DX10 proposed something like a programmable primitve processor. Did you have any plans to include it or how advanced were your hardware design when it was cancelled out of the specification.
Vijay Sharma: Oh, I don't know in terms of that details. And even if I did know I could not tell you at this stage - because it's before launch.
PCGH: On another matter: Your R5x-GPUs were quite superior to Nvidias GPUS in terms of image quality. G80 has much improved on this. Do you plan to improve image quality in terms of anti-aliasing and texture filtering - I'm not talking about DX10-effects - but in terms of FSAA and AF- over R580.
Vijay Sharma: Oh yes, there'll be those improvement put in. But mind you the trend we're seeing thaht with higher resolution the benefits of AA are diminished. So if you're running 1.920x1.080 the effect of 4x or 8x AA is less than if you're running 1.024x768.
PCGH: Of course. But it's still visible. But nonetheless: Many people still think "hey, i got a 16x12-display and i don't need AA anymore."
Vijay Sharma: Sure, but there's a tradeoff. If you take the performance penalty...
PCGH: You're talking about the law of diminshing returns.
Vijay Sharma: Yeah. So i think from a trend perspective we're not gonna see, we probably won't in the coming generations 32xAA. You know even today with crossfire we support 14xAA and that's continue to do that.
PCGH: You told me about a different between 4x and 8x AA - you didn't mention 6xAA...
Vijay Sharma: Or 6x - i was just using multiples of 4...
PCGH: OK. Rumors are that you are using, ok actually we've seen already some slates here lying on the floor stating that R600's using GDDR4 - not being used obviously. But rumors are you are using very high clocked GDDR4 memory on R600 with a 512 Bit bus width. You would get massive amounts of bandwidth, about 150 Gigabyte/s with that. What are you doing with that bandwidth. It is higher requirements of DX10-style applications or are you just trying to be on the safe side never to be bandwidth limited with your expensive chip.
Vijay Sharma: I don't want to get to far into the architecture at this stage. But certainly as you increase the compute capabilities of the graphics engine you'll need more bandwidth. We think that our competitors who have a 384 Bit interface they are probably going to be bandwidth limited given that they're building with GDDR3 - I don't think they have a GDDR4-design - so i think they don't..
PCGH: They state that G80 supports GDDR4, they just don't have a design ready.
Vijay Sharma: Yeah, they don't have the design - which is fine. But i think the 512 Bit inteface gives you a tremendous bandwidth and so we think on the high end the last thing you want is to be bandwidth limited.
PCGH: But a broad bus interface and high speed memory - GDDR4 - is a cost factor and it would make R600 more expensive than if you were using GDDR3 and a 256 to 384 Bit interface.
Vijay Sharma: If you had a 512 bit interface doesn't mean that you can't use just 256 bits. And you can use different memories. So from a bandwidth perspective we can certainly match or exceed anyones bandwidth with the architecture.
PCGH: Are you sticking to the ring bus memory controller concept? After all you've put much effort into it in R5x-architecture.
Vijay Sharma: In the 5x-architecture we have the ringbus memory controller - there have been some changes in the 600-family.
PCGH: ...obviously for the better, I guess.
Vijay Sharma: You'll have to wait for the details...
PCGH: On another matter: Nvidia stated that the G80-Chip in it's current form is not compatible with their AGP-Bridge - maybe future chips are again, but G80 will not be. Can you tell us about R6x?
Vijay Sharma: We have a brigde chip and it works with 600 family.
PCGH: So there's no reason it should not work.
Vijay Sharma: No.
PCGH: So it's up to the board partners again to build AGP cards just as they do now.
Vijay Sharma: Yes.
PCGH: Power consumption. We've seen the photos on the internet of the so called OEM-designs of the R600, we've seen the photo in the press conference of your teraflop-box. The coolers look very very massive. Is this to be on the quiet side of thing or do you just have to get rid of massive amounts of thermal energy.
Vijay Sharma: Both. You know, there's no surprise that the next generation - whether it's G80 or R600 - these are big chips. And you saw the two 600s put out a teraflop. And they don't get that at low wattage. You need power. They do consume power and we have air-cooled dual-slot cooling solutions for the R600. And we've designed it such that we meet acoustic requirements and also provide the cooling that's required. We will have third parties making liquid cooled solutions. I think in the high-end and in the enthusiast space we're going to level off in terms of power consumption.
PCGH: So you don't expect power to go much higher than R600/G80-level.
Vijay Sharma: Well certainly not from AMDs perspective - I don't know what Nvidia's going to do - but certainly not AMDs perspective I think you're going to the a levelling off of power certainly in the enthusiast space. Some people have asked will power consumption come down in the enthusiast space. It can because we can go to 65nm where the per gate leakage is much lower. Or we can go to 55 and employ different techniques in the process. But in the enthusiast space the game is to deliver maximum performance.
PCGH: No matter what cost...
Vijay Sharma: No matter what cost - well reasonable. But what we do is we say this is the power budget for the enthusiast space. Use every last watt and deliver performance. That's why I think it will level off.
PCGH: Where you considering in some point in R600 development that air cooling would not be sufficient anymore. Because there were rumors there were early that where by design... [broken]... They had some problems with power leakage and they where rumored to be above 300 watts.
Vijay Sharma: Wow - 300 Watts I don't recall. But what I can tell you that we have a whole thermal team in Markham in Toronto and what they do is develop cooling solutions for the graphics products.
PCGH: So you have dedicated specialists. You don't go to Taiwan to the "cooler market and go like "hey, give me 500k of those"...
Vijay Sharma: We do everything. I mean, we have a dedicated team...
PCGH: I mean for high-end.
Vijay Sharma: The purpose of this cooling team is to look at all possible ways to cool GPUs. We've looked at liquid cooling designs, we've looked at air-cooling, we've looked at vapor-chambers. We've done Heatpipes. We've gone to third parties around the world who work specifically on cooling solutions to see what they can come up with. We actually want to take the best in innovation and put it on the product.
PCGH: It was the first time since - I don't remember when - when we saw G8800 GTX and GTS having such a large discrepancy between the top-model and the second in line. Do you think it was a mistake. Do you plan to take advantage of that big gap that's opening up there to introduce a intermediate model with your fastest model being fast than GTX and your second fastest model being almost as fast as GTX.
Vijay Sharma: I don't want to talk about what we're going to do on those products. Soon we will announce that too. But I think you've discovered that the graphics market in the enthusiast space is very wide in terms of pricespan. So it really goes from 349 or 399 Euro-dollar all the way up to 599 and the volume at 599 is very small - the market is very small. And I think our competitor realized that. So the key in enthusiast graphics is price-performance. So I think on a price-performance-basis the R600-series is going to be very strong.
PCGH: Given the fact - as I take it - that the R600 is produced at 80 nm. How much of an advantage does that give you because after all it's just one-ninth from 90 nm. So how much of an improvement do you think that gave you.
Vijay Sharma: In terms of...
PCGH: Overall - transistors fitting on a given die size, power...
Vijay Sharma: Yeah, I think the big advantage that 80 gives you over 90 from a process perspective is transistor density. You just get more and the chip will cost less for a given transistor count than it would at 90.
PCGH: But did you go for less cost or maximum transistor count?
Vijay Sharma: In the high-end, methodology is when we develop the chips, we do go for cost target. So we specify a cost we need, and then the engineers need to put as many transistors and as much performance into that cost budget. And although a lot of people say that it's "Deliver the highest performance no matter what there's always a "matter what - whether it's cost or power or something else. So we do do that. So the choice of 80 was aligned with what we need to deliver and it did give us a cost advantage over 90. So we choose to go that way.
PCGH: You felt it was worth the hassle compared to the proven process of 90nm?
Vijay Sharma: Oh the R600 wasn't the first 80nm part we've done.
PCGH: But I'd bet definitely by far the most complex...
Vijay Sharma: O certainly it was the most complex. But from a process perspective we have not had 80nm process issues on the R600.
PCGH: One question about performance: I know you can't answer to any details, so I'll be very vague about it. Did you hit you initial clock target for R600 or did you even exceed it?
Vijay Sharma: Oh, I think we actually exceeded the clock target that we had. So we're quite pleased with the results.
PCGH: Another word on the family of R6x. You plan to introduce all products at once you said. Does that include mobile products?
Vijay Sharma: Right now we're looking at a whole family of products. So there's a whole set of R600-class mobile products and desktop products. And so we do one big tech event for the press under NDA. And then following that will be the announcements, formal public announcements for the products.
PCGH: So the press event will cover all products and the mobile devices are going to launch a little later?
Vijay Sharma: Yes. Well they're very platform dependent.
PCGH: Ok, one of the last questions... The RV530 was in terms of performance was in terms of performance and functional units I think exactly a fourth of R580 and you put a later chip out - RV570 - to cover that large gap that opened up there. Do you think that R6x-family is a little bit better balanced. Or didn't you feel that it was a mistake at all to make RV530 that weak compared to RV570?
Vijay Sharma: Your comparison is accurate. But we don't look in our product line that way - to say that a 530 is a quarter of a 580 - which is true. What we look at is that the 530 right now is selling in the market for a 256 meg part for 89-99 Dollars or Euros. Which is a wonderful price-point and it's selling very very well. The 570 is substantially more architecture and it's selling at 199 and it's selling very very well. The key really is to make sure that you deliver the right amount of architecture, the right amount of 3D at the right price point. And then it comes down to timing. Because not all things necessarily will be available at the same time. And so the 570 came after the 580 and the 530 so yes: There was a gap at 199 and the 570 filled that gap. In that respect, looking at the product plan, now everything is correctly sized.
PCGH: What price range are we looking at at R6x-launch? From 99 to 599?
Vijay Sharma: I think I'll say that it'll cover the full spectrum of price points so you'll have the best DX10 available in the value-space, mainstream, performance and enthusiast.
PCGH: But not integrated graphics on motherboard chipsets?
Vijay Sharma: That's not planned at launch. Not at this launch.
PCGH: Rick told us on the press conference that you had HD-Audio and HDMI integrated into the RV6x. Is that true for all R6x-products from top to bottom?
Vijay Sharma: Yes.
PCGH: So I guess that's all I wanted to know - well, all I could reasonably expect you to give me an answer to..
Vijay Sharma: [laughs] We have to have an excuse to see you again in a month, so...
Dopo tanta fuffa made in Fudzilla una lunga intervista fatta ad un vero portavoce di ATI: Vijay Sharma Director della sezione Discrete Graphics di AMD-ATi. La pubblica PC Games Hardware.
Alcuni passaggi sono molto interessanti. ;)
google traduttoreeeee :ops:
:D
interessante, e ufficiale, domani me la leggo meglio :)
TecnoWorld8
31-03-2007, 22:32
non ve la traduco interamente perchè ora non ho tempo...
diciamo che le risposte sono spesso evasive, com'era prevedibile; poiché l'intervistato non ha negato alla domanda sui processo produttivo ad 80nm, deduco che alla fine R600 NON sia a 65nm.
Interessante come dice che R600 è per lui la "seconda generazione di prodotti DX10", considerando come prima il chip di Xbox 360...forse perchè aveva già lo unified shader, aggiungo io.
Dice che R600 non è in ritardo perchè non pronto, ma SOLO per fare un lancio unico per tutta la famiglia di prodotti, tra un mese circa. E aggiunge che i drivers per Vista li soddisfano molto.
Inoltre dice che la frequenza di clock è superiore a quanto si attendevano di raggiungere all'inizio. E sostiene che la gamma di R600 e derivati coprirà pressochè l'intero spettro di costo (l'intervistatore gli chiede se sarà da 99 a 599$ e lui non dice nè sì nè no...).
La cosa che mi insospettisce è che evadeva a tutte le domande in cui si faceva un confronto prestazionale tra 8800gtx e R600. Solitamente i produttori sono sboroni...in questo caso davvero abbottonato. Speriamo che questo non sia un cattivo segno...
Infine altra cosa interessante è il discorso sul bus a 512bit. L'intervistato dice che pensa che nVidia sarà presto "bandwidth limited" con il bus a "soli" 384bit...
Per dire la verità, dopo questa intervista non sono troppo soddisfatto. Vedremo.
intervista interessantissima , sembra confermata la presenza di HDMI suttutta la linea, from top to bottom :)
il fatto di non aver sboroneggiato sulle prestazioni sinceramente non mi preoccupa più di tanto :boh:.....
Kharonte85
01-04-2007, 00:03
il fatto di non aver sboroneggiato sulle prestazioni sinceramente non mi preoccupa più di tanto :boh:.....
Consumi, calore e prezzo mi preoccupano invece...:fagiano:
TecnoWorld8
01-04-2007, 00:20
io ricordo, anni fa, che ATi e nVidia facevano a gara, nelle interviste prima del rilascio dei prodotti, a far notare come il loro chip di punta sarebbe stato più potente, meno costoso e meno caldo.
invece qui l'intervistato dice che per forza il chip è caldo, data la potenza e la complessità. non nega che sia ad 80nm (e dunque non è a 65nm) e quando gli si parla del divario prestazionale tra 8800gtx e 8800gts, chiedendogli se i due modelli di R600 si posizioneranno uno sopra gtx e uno tra i due chip nvidia, lui non dice null'altro che R600 sarà forte come rapporto prestazioni/prezzo...
a sto punto inizio a pensare che raggiungerà sì e no le prestazioni di una GTX. Altrimenti avrebbe detto qualcosa tipo: avremo un modello di punta che offrirà prestazioni superiori a quanto sul mercato ora, rimanendo ad un livello di costo accettabile...
non so, è la mia impressione.
Per la serie: altro polverone alzato senza dichiarare nulla di concreto. :mad:
Ciao :)
non ve la traduco interamente perchè ora non ho tempo...
diciamo che le risposte sono spesso evasive, com'era prevedibile; poiché l'intervistato non ha negato alla domanda sui processo produttivo ad 80nm, deduco che alla fine R600 NON sia a 65nm.
Questo è ormai certo. ;)
La cosa che mi insospettisce è che evadeva a tutte le domande in cui si faceva un confronto prestazionale tra 8800gtx e R600. Solitamente i produttori sono sboroni...in questo caso davvero abbottonato. Speriamo che questo non sia un cattivo segno...
Infine altra cosa interessante è il discorso sul bus a 512bit. L'intervistato dice che pensa che nVidia sarà presto "bandwidth limited" con il bus a "soli" 384bit...
Per dire la verità, dopo questa intervista non sono troppo soddisfatto. Vedremo.
io ricordo, anni fa, che ATi e nVidia facevano a gara, nelle interviste prima del rilascio dei prodotti, a far notare come il loro chip di punta sarebbe stato più potente, meno costoso e meno caldo.
invece qui l'intervistato dice che per forza il chip è caldo, data la potenza e la complessità. non nega che sia ad 80nm (e dunque non è a 65nm) e quando gli si parla del divario prestazionale tra 8800gtx e 8800gts, chiedendogli se i due modelli di R600 si posizioneranno uno sopra gtx e uno tra i due chip nvidia, lui non dice null'altro che R600 sarà forte come rapporto prestazioni/prezzo...
a sto punto inizio a pensare che raggiungerà sì e no le prestazioni di una GTX. Altrimenti avrebbe detto qualcosa tipo: avremo un modello di punta che offrirà prestazioni superiori a quanto sul mercato ora, rimanendo ad un livello di costo accettabile...
non so, è la mia impressione.
Forse dimentichi di citare la notizia riferita en passant dal giornalista:
PCGH: A couple of days ago there was a blog entry by one of the FSX developers stating that they obviously had a R600 to experiment with and that its geometry shader performance was much higher than G80s.
Ovvio che uno spokesperson ufficiale non possa commentare un rumor del genere, ma non lo ha nemmeno smentito: ha detto che già in passato l'architettura ATi era molto più efficiente di quella nVidia. ;)
intervista interessantissima , sembra confermata la presenza di HDMI suttutta la linea, from top to bottom :)
Non solo, avranno anche un chip HD Audio integrato su tutte. ;)
Consumi, calore e prezzo mi preoccupano invece...:fagiano:
Dall'intervista pare di capire che in realtà i consumi non saranno molto superiori a G80...
Kharonte85
01-04-2007, 09:44
Dall'intervista pare di capire che in realtà i consumi non saranno molto superiori a G80...
A me pare di capire invece che ha evitato la domanda...dicendo che qualcuno si aspetta che i consumi nella "fascia entusiasta" siano ridotti e questo sara' possibile perche' possono andare a 65nm ecc... (quindi non adesso) ma che le prestazioni rimangono l'obbiettivo principale...:mc:
Io credo che il valore dei 240w che girava sara' confermato.
Ho idea che questa scheda scheda sara' una bestia, consumera' come una bestia, scaldera' come una bestia, costera' quanto una bestia, rimane da vedere se andra' come una bestia...:fagiano:
Abbiamo un ulteriore conferma che l'architettura di R600 è struttura in 320 unità madd a 800 Mhz, ed è certamente ad 80 nm.
Continuo a non capire per quale motivo R600 sarà solo poco superiore a G80, l'intervistato non ha mai parlato di superiorità sui loro concorrenti, cosa che invece è successa con K10.
Sulla carta R600 dovrebbe sfondare G80. Ho impressione che Ati si sia concentrata tantissimo per produrre un chip con grandi prestazioni in DirectX10 e il posticipo di Crysis l'ha fregata.
Chiedo ai più esperti: se uno shader unit è strutturato in una ALU vec4 + una scalare, come vengono processati i pixel e i vertici rispetto a G80, che invece ha semplicemente 128 unità scalari?
Una ALU vec4 è una ALU logica, ed è quindi composta da 4 ALU fisiche scalari, che possono essere utilizzati per compiere operazioni sui pixel shader giusto?
Nel caso io ordini ad uno shader unit di processare dei pixel cosa accade? e nel caso dei vertici?
:)
Ho idea che questa scheda scheda sara' una bestia, consumera' come una bestia, scaldera' come una bestia, costera' quanto una bestia, rimane da vedere se andra' come una bestia...:fagiano:
FX 5xxx Series? :asd:
Abbiamo un ulteriore conferma che l'architettura di R600 è struttura in 320 unità madd a 800 Mhz, ed è certamente ad 80 nm.
Continuo a non capire per quale motivo R600 sarà solo poco superiore a G80, l'intervistato non ha mai parlato di superiorità sui loro concorrenti, cosa che invece è successa con K10.
Sulla carta R600 dovrebbe sfondare G80. Ho impressione che Ati si sia concentrata tantissimo per produrre un chip con grandi prestazioni in DirectX10 e il posticipo di Crysis l'ha fregata.
Chiedo ai più esperti: se uno shader unit è strutturato in una ALU vec4 + una scalare, come vengono processati i pixel e i vertici rispetto a G80, che invece ha semplicemente 128 unità scalari?
Una ALU vec4 è una ALU logica, ed è quindi composta da 4 ALU fisiche scalari, che possono essere utilizzati per compiere operazioni sui pixel shader giusto?
Nel caso io ordini ad uno shader unit di processare dei pixel cosa accade? e nel caso dei vertici?
:)
a me invece non è chiaro il concetto di unità MADD e vec4 :fagiano:
mi devo essere perso qualcosa :doh:
Il problema riscontrato con i Catalyst 7.3 (schermata blu) può essere legato anche a R600, oppure sono casualità?
Ciao :)
Kharonte85
01-04-2007, 10:14
FX 5xxx Series? :asd:
Assolutamente no, la serie FX olre ai problemi fu' fregata soprattutto perche' in sostanza non era Dx9 ma si fermava alle Dx8.1...qui entrambe le schede saranno DX10, nella peggiore delle ipotesi r600 andra' solo un po' di piu' della 8800gtx...
A me pare di capire invece che ha evitato la domanda...dicendo che qualcuno si aspetta che i consumi nella "fascia entusiasta" siano ridotti e questo sara' possibile perche' possono andare a 65nm ecc... (quindi non adesso) ma che le prestazioni rimangono l'obbiettivo principale...:mc:
Io credo che il valore dei 240w che girava sara' confermato.
Ho idea che questa scheda scheda sara' una bestia, consumera' come una bestia, scaldera' come una bestia, costera' quanto una bestia, rimane da vedere se andra' come una bestia...:fagiano:
PCGH: Power consumption. We've seen the photos on the internet of the so called OEM-designs of the R600, we've seen the photo in the press conference of your teraflop-box. The coolers look very very massive. Is this to be on the quiet side of thing or do you just have to get rid of massive amounts of thermal energy.
Vijay Sharma: Both. You know, there's no surprise that the next generation - whether it's G80 or R600 - these are big chips. And you saw the two 600s put out a teraflop. And they don't get that at low wattage. You need power. They do consume power and we have air-cooled dual-slot cooling solutions for the R600. And we've designed it such that we meet acoustic requirements and also provide the cooling that's required. We will have third parties making liquid cooled solutions. I think in the high-end and in the enthusiast space we're going to level off in terms of power consumption.
Level off=livellarsi, stare sullo stesso livello di-->Presumo si riferisca a G80, no? Dunque questo dovrebbe indicare che più o meno consumeranno quantità paragonabili di energia. ;)
Il problema riscontrato con i Catalyst 7.3 (schermata blu) può essere legato anche a R600, oppure sono casualità?
Ciao :)
No, secondo OCWorkBench R600 sarà supportato solo a partire dai 7.4.
No, secondo OCWorkBench R600 sarà supportato solo a partire dai 7.4.
Ah, mi pareva di aver letto che dovevano già essere incorporate le schede in questa release.
Grazie e ciao :)
Level off=livellarsi, stare sullo stesso livello di-->Presumo si riferisca a G80, no? Dunque questo dovrebbe indicare che più o meno consumeranno quantità paragonabili di energia. ;)
Allora le foto che girano con l'alimentatore da 8 pin assieme a quello da 6 sono false? Oppure sono stati messi solo per sicurezza? :confused:
Ciao :)
Kharonte85
01-04-2007, 10:24
Level off=livellarsi, stare sullo stesso livello di-->Presumo si riferisca a G80, no? Dunque questo dovrebbe indicare che più o meno consumeranno quantità paragonabili di energia. ;)
:nono: lui dice "Stiamo andando verso" ...non puoi separarlo dal discorso successivo (forse si riferisce a quello) che risponde alla domanda diretta r-600 Vs g80...:D
Comunque non ho intenzione di mettermi a fare l'analisi logica su una intervista che puo' voler dire tutto e niente (poiche' c'è ancora l'NDA), aspettiamo e vediamo. :)
E cmq anche 100w VS 1000w sono paragonabili, uno è 1/10 dell'altro...:asd:
Io penso cosi' semplicemente perche' se non c'è un passaggio 80nm-->65nm, vedendo i tipi di connettori presenti, le notizie trapelate e credendo che i miracoli non li faccia nessuno (Dio escluso, sempre se esiste...:stordita: ) ho poche speranze... :mc:
Abbiamo un ulteriore conferma che l'architettura di R600 è struttura in 320 unità madd a 800 Mhz, ed è certamente ad 80 nm.
emh...mi sono perso qualcosa...da dove ti viene questa sicurezza nell'intervista non si fa nessun accenno a questo...
nico88desmo
01-04-2007, 10:30
Ottima intervista!
Mi è parsa strana, come detto qui nei post prima, l'atteggiamento di non "sborone".
Vijay Sharma: If you had a 512 bit interface doesn't mean that you can't use just 256 bits. And you can use different memories. So from a bandwidth perspective
Leggendo questa frase mi è venuto un dubbio...non è che il bus sia a 256 bit e che poi utilizzano un metodo di compressione dei dati 1:2?
anche perchè..se R600 avrà 320 unità madd a 800 Mhz, bus reale a 512 bit..siamo sicuri che tutte queste cose ci stiano in 720Mln transistor?? Confrontandolo con G80...680Mln, che ha 384 bit di banda e 128 shader unit, più altri 20-30Mln del chip esterno del segnale (NVO si chiama il chip esterno mi sembra), G80 in realtà avrebbe circa 700 - 710 Mln di transistor..che sono, se le caratteristiche di R600 sono reali, appena 10 - 20 Mln in meno a quest'ultimo.
Insomma, con così pochi transistor di differenza tra le 2 GPU non ci possono essere (secondo me) tutti quei bit di bus in più o i 320 madd.
Ottima intervista!
Mi è parsa strana, come detto qui nei post prima, l'atteggiamento di non "sborone".
Leggendo questa frase mi è venuto un dubbio...non è che il bus sia a 256 bit e che poi utilizzano un metodo di compressione dei dati 1:2?
anche perchè..se R600 avrà 320 unità madd a 800 Mhz, bus reale a 512 bit..siamo sicuri che tutte queste cose ci stiano in 720Mln transistor?? Confrontandolo con G80...680Mln, che ha 384 bit di banda e 128 shader unit, più altri 20-30Mln del chip esterno del segnale (NVO si chiama il chip esterno mi sembra), G80 in realtà avrebbe circa 700 - 710 Mln di transistor..che sono, se le caratteristiche di R600 sono reali, appena 10 - 20 Mln in meno a quest'ultimo.
Insomma, con così pochi transistor di differenza tra le 2 GPU non ci possono essere (secondo me) tutti quei bit di bus in più o i 320 madd.
Piu' che altro leggo quella frase come la possibilita' di far uscire diverse fasce di schede con diversi tipi di memoria per mantenere i costi. ;)
Assolutamente no, la serie FX olre ai problemi fu' fregata soprattutto perche' in sostanza non era Dx9 ma si fermava alle Dx8.1...qui entrambe le schede saranno DX10, nella peggiore delle ipotesi r600 andra' solo un po' di piu' della 8800gtx...
:mbe:
era una DX9.0b solo che andava talmente male che era meglio rimanere su DX8.1 ;)
e poi la mia era una battuta :D
http://www.gpureview.com/show_cards.php?card1=172&card2=154
tornando a R600, quel
PCGH: A couple of days ago there was a blog entry by one of the FSX developers stating that they obviously had a R600 to experiment with and that its geometry shader performance was much higher than G80s.
rende ottimistici riguardo alle prestazioni DX10, ma bisogna ricordare anche una delle poche dichiarazioni "da uccello più lungo" fatte da ATi (anche se :old: ) che R600 sarebbe stato il chip più veloce in DX9
se te la trovo la notizia te la posto, era su tom's :)
Kharonte85
01-04-2007, 10:54
:mbe:
era una DX9.0b solo che andava talmente male che era meglio rimanere su DX8.1 ;)
appunto era una vga dx8.1 :D /OT
appunto era una vga dx8.1 :D /OT
http://www.vocinelweb.it/faccine/varie/05.gif
emh...mi sono perso qualcosa...da dove ti viene questa sicurezza nell'intervista non si fa nessun accenno a questo...
Ha detto che 2 * R600 in Crossfire sviluppano 1 Teraflops.
Quindi 500 Gigaflops a testa. Dalle indiscrezioni finora rivelate:
320 Madd * 2 flops per maad * 800 Mhz = 512 Gigaflops
:)
anche perchè..se R600 avrà 320 unità madd a 800 Mhz, bus reale a 512 bit..siamo sicuri che tutte queste cose ci stiano in 720Mln transistor??
Considera che Xenos con 232 milioni di transistor (senza edram) contiene:
192 Madd
8 Rops
16 TMU
Interfaccia a 128 bit
Dai rumor dovrebbe avere in 700 milioni di transistor:
320 madd (x1,7 rispetto Xenos)
32 rops (x 4 rispetto Xenos)
32 TMU (x2 rispetto Xenos)
interfaccia a 512 bit. (x4 rispetto Xenos)
Mediamente quindi dovrebbe avere 2-3 volte il numero dei transistor di Xenos cioè intorno ai 700 milioni.
a me invece non è chiaro il concetto di unità MADD e vec4
mi devo essere perso qualcosa
Forse ho capito male quello che ha detto yossarian un pò di tempo fa.
Aveva detto che le 128 unità madd di G80 corrispondono a 32 unità vec4, di conseguenza ho pensato che 4 unità madd sono equivalenti a una unità vec4. Dopotutto una unità vec4 deve lavorare su 4 valori scalari giusto?
http://www.techarp.com/showarticle.aspx?artno=392&pgno=0
1 aprile... :stordita:
Athlon 64 3000+
01-04-2007, 12:25
sinceramente devo ancora capire perchè state tanto a cercare di commentare un'intervista di un personaggio di AMD quando è normale che non sveli le carte di R600 visto che si è ancora sotto NDA.
Quindi ritengo ancora tutto possibile.
Athlon 64 3000+
01-04-2007, 12:26
Considera che Xenos con 232 milioni di transistor (senza edram) contiene:
192 Madd
8 Rops
16 TMU
Interfaccia a 128 bit
Dai rumor dovrebbe avere in 700 milioni di transistor:
320 madd (x1,7 rispetto Xenos)
32 rops (x 4 rispetto Xenos)
32 TMU (x2 rispetto Xenos)
interfaccia a 512 bit. (x4 rispetto Xenos)
Mediamente quindi dovrebbe avere 2-3 volte il numero dei transistor di Xenos cioè intorno ai 700 milioni.
Forse ho capito male quello che ha detto yossarian un pò di tempo fa.
Aveva detto che le 128 unità madd di G80 corrispondono a 32 unità vec4, di conseguenza ho pensato che 4 unità madd sono equivalenti a una unità vec4. Dopotutto una unità vec4 deve lavorare su 4 valori scalari giusto?
interessante quello che hai scritto.
Andando a fare bene i calcoli combiaca tutto abbastanza bene.
Bisognerebbe fare approfondire questa cosa a yossarian.
sinceramente devo ancora capire perchè state tanto a cercare di commentare un'intervista di un personaggio di AMD quando è normale che non sveli le carte di R600 visto che si è ancora sotto NDA.
Quindi ritengo ancora tutto possibile.
Credo che di quelle interviste l'unica cosa che trapela e' tutto il mondo "sotto le righe" che potrebbe far capire o meno come sta andando seriamente la preparazione pre rilascio.
TecnoWorld8
01-04-2007, 12:55
circa la cosa del "level off", vuol dire secondo me che con il tempo si sta andando verso un livellamento dei consumi per la fascia alta. come dire che rimarranno più o meno quelli visti negli ultimi tempi e non aumenteranno più di tanto in futuro...
in ogni caso, insisto col dire che questa intervista è MOLTO diversa da quelle rilasciate anni fa circa altri prodotti, in cui si diceva a chiare lettere che sarebbero stati superiori ecc ecc, anche se il divario poi si rivelava essere minimo, "benchmark wise". questo atteggiamento mi sa più di chi dice: noi avremo una gamma ampia, competitiva come prezzo, ecc ecc...senza dire "noi avremo il prodotto più potente"...e ciò non mi conforta affatto.
halduemilauno
01-04-2007, 13:03
First Crysis Beta DX10 benchmarks with pictures.
1920x1440x,4x aa 16x af, XQ6700, 2x1gb ram.
X2900XTX 52.7 FPS
8800ULTRA 29.2 FPS
Link (http://img458.imageshack.us/img458/3503/dx10benchsc8.jpg)
;)
;)
Kharonte85
01-04-2007, 13:09
;)
:sbonk:
;)
:mbe: :eek: :sofico: pesce:Prrr:
e siamo a due...mi hanno fregato pure sul 3d di tr anniversary....maledetti! :O
davide155
01-04-2007, 14:55
;)
:rotfl:
TecnoWorld8
02-04-2007, 14:54
possono anche essere notizie vere. certamente se così fosse, la differenza tra le due sarebbe relativamente poca, dato che la banda sarà già moltissima nella versione con GDDR3, grazie al bus a 512bit.
io comunque butto qui una previsione, dato che ormai mi sono fatto un'opinione abbastanza precisa della scheda...secondo me sarà disponibile per l'acquisto non prima di metà maggio e andrà al massimo 10% più della 8800GTX in dx9 costando poco di più.
La 8800 Ultra penso sarà persino un po' più veloce.
questa, ripeto, è la mia impressione dovuta al fatto che ATi è troppo poco "sborona" per questo prodotto.
Sarò felice di essere smentito.
Kharonte85
02-04-2007, 15:04
io comunque butto qui una previsione, dato che ormai mi sono fatto un'opinione abbastanza precisa della scheda...
Eh si', ormai si sa tutto di quella scheda...:asd:
Ancora fuffa:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=380&Itemid=34
Ma possibile che lancino prima una non Top di gamma? Mi sembra stranissimo...
Ma possibile che lancino prima una non Top di gamma? Mi sembra stranissimo...
sembra improbabile anche a me. o almeno, la storia insegna diversamente :D
TecnoWorld8
02-04-2007, 15:20
Kharonte85: non si sa nulla, infatti ho detto che mi sono fatto un'impressione dalla mancanza di "sboroneria" che dimostra ATi. E ripeto che spero di essere smentito e che vada il doppio di una GTX, ma ho fatto la mia previsione, come si potrebbe fare una puntata su un cavallo alle corse...alla cieca...e ripeto che secondo me sarà al massimo 10% più veloce di una GTX.
Eh si', ormai si sa tutto di quella scheda...:asd:
Ma possibile che lancino prima una non Top di gamma? Mi sembra stranissimo...
Direi impossibile, o alquanto straordinario e sospetto.
possono anche essere notizie vere. certamente se così fosse, la differenza tra le due sarebbe relativamente poca, dato che la banda sarà già moltissima nella versione con GDDR3, grazie al bus a 512bit.
io comunque butto qui una previsione, dato che ormai mi sono fatto un'opinione abbastanza precisa della scheda...secondo me sarà disponibile per l'acquisto non prima di metà maggio e andrà al massimo 10% più della 8800GTX in dx9 costando poco di più.
La 8800 Ultra penso sarà persino un po' più veloce.
questa, ripeto, è la mia impressione dovuta al fatto che ATi è troppo poco "sborona" per questo prodotto.
Sarò felice di essere smentito.
A questo punto le prestazioni in Directx9 poco mi importano onestamente. L'ambiente DX10 imho portera' grosse sorprese sia per le attuali 8800 e 8900 sia per le R600 based. Molti altarini potrebbero scoprirsi e inaspettatamente capovolgere certe situazioni date cosi' per scontato. ;)
Athlon 64 3000+
02-04-2007, 20:13
http://www.fx57.net/?p=544
http://forums.vr-zone.com/showthread.php?t=140794
Kharonte85
02-04-2007, 20:19
http://www.fx57.net/?p=544
http://forums.vr-zone.com/showthread.php?t=140794
14 Maggio?
sarebbe anche l'ora...
TecnoWorld8
02-04-2007, 20:50
e se questa è vera, già una mia prima previsione si è avverata ;)
p.s.: quando ho detto che in dx9 sarà "al massimo" il 10% più veloce di una GTX, ho inteso dire che in dx10 non essendoci ancora applicazioni il divario non sarà subito misurabile.
per l'architettura con cui pare essere progettata, forse R600 potrebbe avere un vantaggio su 8800, ma solo se le applicazioni saranno ben programmate per queste nuove librerie...
in ogni caso, ribadisco la mia "scommessa" sul poco divario tra R600 e GTX. E sul fatto che l'Ultra la equivarrà o supererà.
A questo punto le prestazioni in Directx9 poco mi importano onestamente. L'ambiente DX10 imho portera' grosse sorprese sia per le attuali 8800 e 8900 sia per le R600 based. Molti altarini potrebbero scoprirsi e inaspettatamente capovolgere certe situazioni date cosi' per scontato. ;)
Si ma il punto e' come testarle in dx10 se non ci sono giochi?
Si ma il punto e' come testarle in dx10 se non ci sono giochi?
Semplice: per quanto mi riguarda se non puoi testarle, non ho nessuna fretta e al momento la cosa piu' saggia' e' appunto aspettare. Se ricordiamo NV30 con applicativi richiedenti la compatibilta' all'SM2.0 capiamo quanto a volte e' saggio non farsi prendere dalla foga di spendere sulla carta. E' ovvio che ogni produttore tirera' acqua al proprio mulino: nessuno ti dira' mai che la propria scheda fara' schifo. Solo le recensioni potranno dirci quanto effettivamente possa valere una scheda nata per i giochi di prossima generazione ma che appunto al momento non potra' essere testata su alcun titolo davvero nato per queste architetture, visto che non ne esistono.
Per quello dico sempre che 3DMark a prescindere dai numeri degli score finali, troppo dipendenti da diversi fattori, sia ancora oggi una valida fonte di informazioni, cosi' come sempre riportato nelle sue review da Vifani, piuttosto nei singoli test sintetici lasciando molto spazio per capire in quale specifiche applicazioni certe GPU possano soffrire o performare bene.
Mi auguro lo vedremo a breve.. non dovrebbe mancare molto.
Come qualità di immagine dovrebbe spuntarla ati ?!?
Come qualità di immagine dovrebbe spuntarla ati ?!?
Non sappiamo nemmeno il nome sicuro della scheda, figuriamoci la vincitrice nella qualita' del rendering. :p;)
Nvidia ha migliorato di molto le proprie soluzioni in questo campo sebbene ATI abbia sempre avuto qualcosina in piu' nei prodotti precedenti. Ma stiamo parlando di differenze quantificabili su screenshots statici, a questi livelli non ha piu' il senso che aveva discuterne (almeno finora) come con grosse perdite qualitative quali ai tempi dell'anti aliasing supersampling o "smoothed".
TecnoWorld8
03-04-2007, 07:50
infatti secondo me le 8800gtx e gts sono da vedere come delle super schede dx9 con un bonus (la compatibilità dx10) che ne prolungherà la vita utile per altri 6-9 mesi.
ed è per questo che se la r600 esce con prestazioni praticamente analoghe, non sarà particolarmente appetibile...uscendo 7 mesi dopo le 8800!
p.s.: la geforce3 citata, quando uscù, andava meno della gf2 ultra nei giochi che non usavano le nuove librerie. invece se non altro queste schede sono più potenti di quelle della generazione passata anche su titoli dx9.
infatti secondo me le 8800gtx e gts sono da vedere come delle super schede dx9 con un bonus (la compatibilità dx10) che ne prolungherà la vita utile per altri 6-9 mesi.
ed è per questo che se la r600 esce con prestazioni praticamente analoghe, non sarà particolarmente appetibile...uscendo 7 mesi dopo le 8800!
p.s.: la geforce3 citata, quando uscù, andava meno della gf2 ultra nei giochi che non usavano le nuove librerie. invece se non altro queste schede sono più potenti di quelle della generazione passata anche su titoli dx9.
Beh, non lo chiamerei proprio un "bonus" la compatibilita' DX10. Alla fine l'architettura e' completamente rinnovata ma e' indubbio che uscendo n mesi prima il G80 sia stato fortemente ottimizzato per permettere la giusta "transizione" onde evitare appunto che come per il Geforce3 (n.b NV20... ;)) succeda appunto che oltre a non esserci applicativi compatibili (e forse in questo ambito la situazione era ancora peggiore, la primissima serie di GeForce3 fu sfortunata imho rispetto ai titoli che sfruttarono gli shaders solo quando c'erano schede uscite ben dopo) non performava come la costosissima Geforce2 Ultra e anzi in alcuni casi le "buscava" anche.
TecnoWorld8
03-04-2007, 12:43
l'ho definito bonus perchè secondo me con giochi dx10 "seri" la 8800, come tutte le prime schede a supportare delle nuove librerie, zoppicherà. non dico che non farà girare "alan wake", ci mancherebbe, ma magari non lo farà girare a 1920x1200 con tutto al max a 60fps. poi magari sbaglio...vedremo.
certamente G80, in prospettiva rispetto ad NV20 è "molto" più potente della serie precedente di schede. anzi direi che mai fino ad ora si era visto un divario tanto evidente. forse è anche per questo che r600 è stato ritardato...forse ATi si attendeva il solito 20% di miglioramento sulla serie precedente e si era tarata per battere tale valore...non si attendeva di certo un quasi raddoppio sui titoli dx9, con piena compatibilità per le librerie future.
è anche per questo che torno a dare la mia previsione al ribasso...R600 supererà 8800gtx "al massimo" di 10% (plausibilmente anche meno) nelle dx9. Per le dx10 forse un po' di più, ma non ipotizzerei comunque più del 20%.
l'ho definito bonus perchè secondo me con giochi dx10 "seri" la 8800, come tutte le prime schede a supportare delle nuove librerie, zoppicherà. non dico che non farà girare "alan wake", ci mancherebbe, ma magari non lo farà girare a 1920x1200 con tutto al max a 60fps. poi magari sbaglio...vedremo.
certamente G80, in prospettiva rispetto ad NV20 è "molto" più potente della serie precedente di schede. anzi direi che mai fino ad ora si era visto un divario tanto evidente. forse è anche per questo che r600 è stato ritardato...forse ATi si attendeva il solito 20% di miglioramento sulla serie precedente e si era tarata per battere tale valore...non si attendeva di certo un quasi raddoppio sui titoli dx9, con piena compatibilità per le librerie future.
è anche per questo che torno a dare la mia previsione al ribasso...R600 supererà 8800gtx "al massimo" di 10% (plausibilmente anche meno) nelle dx9. Per le dx10 forse un po' di più, ma non ipotizzerei comunque più del 20%.
Ipotizzare risoluzioni frames e percentuali e' inutile al momento non sapendo nulla sulle reali carte in gioco di una delle due parti. ;)
Possiamo solo dire che altre volte si sono visti incrementi enormi sia tecnologicamente che prestazionalmente. Vediamo ad esempio il passaggio alle schede con R300 nei titoli Dx8.1 e Dx9, il passaggio a NV10 nei titoli Dx6 e Dx7... sicuramente ne vedremo ancora delle belle e certo e' che G80 sia comunque un osso duro da battere.
Non sappiamo pero' nulla ripeto a come si comportera' in ambiente Dx10 con tutte le features e tutte le nuove metodologie di programmazione che potrebbero aumentare o diminuire quella che attualmente e' il gap mediatico avanzato in questi mesi rispetto alla concorrenza.
TecnoWorld8
03-04-2007, 14:40
R300 e in particolare la 9700pro è stata forse tra le (tantissime) schede che ho posseduto quella che più ho amato. forse perchè è stata la più longeva, avendola tenuta circa due anni, o forse perchè, come giustamente dici, il gap nei confronti della generazione precedente fu dirompente. nVidia arrivò molto dopo con la FX e cmq nn riuscì a recuperare il gap tanto facilmente...
ora però - almeno per certe cose - mi pare che i giochi si siano un po' invertiti. nVidia ha presentato un chip davvero notevole (G80) che offre un incremento prestazionale pazzesco anche su applicazioni "vecchie" e in più garantisce giocabilità buona o ottima su quelle di prossima generazione.
per ora ATi è rimasta a guardare e dalle dichiarazioni che sta facendo, non mi pare abbia in serbo un prodotto in grado di superarla come R300 fece per GF4...
cmq vedremo
Su HardwareZone.com altra intervista con un personaggio di spicco di AMD-ATi: Henri Richard, Executive Vice President, Chief Sales and Marketing Officer. Le domande vertono un po' su tutta le strategie future del gruppo, cito solo la parte in cui si parla espressamente di R600. ;)
HWZ: With the merger, it is understandable that certain products have been realigned, but could we have an update on the R600 delays?
Henri Richard: The R600 will be out in the second quarter. The reason we decided to delay the launch was that we wanted to have a complete DX10-enabled solution top to bottom. A lot of people wrote that the reason it is delayed is because of a problem with the silicon, but there is no problem with the silicon. We are demonstrating it. We can ship it today. But if you think about it, looking at where the market is at, the volumes are going to be in the RV610 and RV630, so it makes sense for us to do a one time launch of the entire family of DX10 enabled products. That meant delaying the R600 for a few weeks, but frankly it doesn't make a difference in the life cycle of the product and talking with our customers and partners, they felt that it would make a bigger impact with one full launch. So we decided to do that.
Also increasingly in particular with Vista, as we've seen with the competition. It doesn't matter if you're shipping the silicon if the drivers are not stable. There is nothing more frustrating than having bought a new graphics card and having your system crash repeatedly because the drivers are not ready. Although we today, even by Microsoft standards, have the best and most stable drivers in the entire industry. The few weeks will give us even more time to continue improving the drivers. Again, the decision lies in the fact that we will have a top to bottom DX10 offering with drivers that will have a very very high level of stability and the only difference is a few weeks. So it seems to make a lot of sense to do it that way.
Niente di nuovo, per carità, ma comunque Richard evidenzia alcuni concetti importanti:
- che non ha senso buttare fuori le schede il prima possibile se poi comunque non hai dei drivers di livello soddisfacente: ricordo che tra 2 settimane escono le 8600, ma il set di drivers attuali non supporta ancora lo SLi.
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61518
- che la battaglia sarà sulla fascia media, come sempre: anzi più di prima, visto che nel Q4 2006 sono diminuite le vendite delle schede di fascia alta, nonostante l'uscita della novità G80.
http://www.hardwarezone.com/articles/view.php?cid=30&id=2229&pg=1
Kharonte85
03-04-2007, 17:50
Su HardwareZone.com altra intervista con un personaggio di spicco di AMD-ATi: Henri Richard, Executive Vice President, Chief Sales and Marketing Officer. Le domande vertono un po' su tutta le strategie future del gruppo, cito solo la parte in cui si parla espressamente di R600. ;)
Niente di nuovo, per carità, ma comunque Richard evidenzia alcuni concetti importanti:
- che non ha senso buttare fuori le schede il prima possibile se poi comunque non hai dei drivers di livello soddisfacente: ricordo che tra 2 settimane escono le 8600, ma il set di drivers attuali non supporta ancora lo SLi.
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61518
- che la battaglia sarà sulla fascia media, come sempre: anzi più di prima, visto che nel Q4 2006 sono diminuite le vendite delle schede di fascia alta, nonostante l'uscita della novità G80.
http://www.hardwarezone.com/articles/view.php?cid=30&id=2229&pg=1
Rispetto la persona ma per me sono una marea di :blah: e cmq sono ancora in linea col "comunicato ufficiale sul ritardo", mi :eek: invece se ci fossero contraddizioni...
E ho forti dubbi sul fatto che i driver saranno perfetti appena usciti (quando mai si è visto?)...:fagiano:
Rispetto la persona ma per me sono una marea di :blah: e cmq sono ancora in linea col "comunicato ufficiale sul ritardo", mi :eek: invece se ci fossero contraddizioni...
E ho forti dubbi sul fatto che i driver saranno perfetti appena usciti (quando mai si è visto?)...:fagiano:
Perfetti no, ma almeno decenti probabilmente sì. ;)
appleroof
03-04-2007, 18:23
Perfetti no, ma almeno decenti probabilmente sì. ;)
Esattamente come quelli per g80, insomma ;)
Esattamente come quelli per g80, insomma ;)
Che infatti non supportano lo SLi per schede che usciranno tra 2 settimane. ;)
Kharonte85
03-04-2007, 18:33
Che infatti non supportano lo SLi per schede che usciranno tra 2 settimane. ;)
Scommetto quanto vuoi che nemmeno i driver AMD-ATI supporteranno lo SLI :O :fagiano:
scusate la battuta...
appleroof
03-04-2007, 18:36
Che infatti non supportano lo SLi per schede che usciranno tra 2 settimane. ;)
Cioè il 99% delle soluzioni Nvidia in giro....
p.s.: sul tread di Stalker c'è un utente con 2 x1650 imbufalito perchè i driver non supportano il crossfire per quel gioco, ha anche scritto e la risposta è stata: ciccia :boh:
davide155
03-04-2007, 19:13
Scommetto quanto vuoi che nemmeno i driver AMD-ATI supporteranno lo SLI :O :fagiano:
scusate la battuta...
:asd:
Su questo non c'è dubbio :O
:asd:
Cmq la data è ancora per il 23 aprile?
Skullcrusher
03-04-2007, 19:14
Cioè il 99% delle soluzioni Nvidia in giro....
p.s.: sul tread di Stalker c'è un utente con 2 x1650 imbufalito perchè i driver non supportano il crossfire per quel gioco, ha anche scritto e la risposta è stata: ciccia :boh:
Già, il crossfire non è supportato in Stalker :rolleyes:
Io spero solo una cosa: che il dissipatore sia silenzioso....se è come quello dell'x1950xtx che sopra al 55% della ventola pareva un'aereo, o peggio ancora, come quello dell'x1900xtx, farò di tutto per far licenziare il progettista :p
Kharonte85
03-04-2007, 19:16
http://www.fx57.net/?p=544
http://forums.vr-zone.com/showthread.php?t=140794
Cmq la data è ancora per il 23 aprile?
http://www.hwupgrade.it/forum/showpost.php?p=16598464&postcount=1363
Athlon 64 3000+
03-04-2007, 20:38
io devo ancora capire se R600 verrà presentato il 23 aprile oppure il 14 maggio.
Io spero il 23 perchè mi sono rotto di aspettare.
davide155
03-04-2007, 21:00
http://www.hwupgrade.it/forum/showpost.php?p=16598464&postcount=1363
Mucias gracias ;)
TecnoWorld8
03-04-2007, 21:57
l'unico motivo per desiderare di fare un lancio unico, con tutti i prodotti presentati insieme, è che evidentemente il prodotto top non sia così spaventoso come si credeva e che allora si cerchi almeno di primeggiare nella fascia media. sono pessimista, lo so, ma anche in quest'ultima intervista non c'è un minimo di "sboroneria", tipica quando si sa che un proprio prodotto è nettamente superiore alla concorrenza.
continuo a puntare su un massimo del 10% di prestazioni extra rispetto alla GTX uscita ormai da quasi 6 mesi.
Apix_1024
03-04-2007, 22:06
l'unico motivo per desiderare di fare un lancio unico, con tutti i prodotti presentati insieme, è che evidentemente il prodotto top non sia così spaventoso come si credeva e che allora si cerchi almeno di primeggiare nella fascia media. sono pessimista, lo so, ma anche in quest'ultima intervista non c'è un minimo di "sboroneria", tipica quando si sa che un proprio prodotto è nettamente superiore alla concorrenza.
continuo a puntare su un massimo del 10% di prestazioni extra rispetto alla GTX uscita ormai da quasi 6 mesi.
io invece da ottimista dico sempre: chi si loda si imbroda! spara basso che andrai cmq meglio!:D :tie:
TecnoWorld8
03-04-2007, 22:14
Apix_1024: posso andare un secondo off topic per farti i complimenti per la tua scheda video in firma??? cavolo se tira...
Apix_1024
03-04-2007, 23:31
Apix_1024: posso andare un secondo off topic per farti i complimenti per la tua scheda video in firma??? cavolo se tira...
grazie! merito del TT tide water, il dissi originale è durato giusto giusto 5gg. il tempo che mi arrivasse il kit!!:D :D
/off topic
Apix_1024: posso andare un secondo off topic per farti i complimenti per la tua scheda video in firma??? cavolo se tira...
Gli MP esistono apposta :rolleyes:
io devo ancora capire se R600 verrà presentato il 23 aprile oppure il 14 maggio.
Io spero il 23 perchè mi sono rotto di aspettare.
Forse il 23 lo presentano a porte chiuse, mentre il 15 maggio a tutti.
TecnoWorld8
04-04-2007, 10:40
fukka75: ok...quale intransigenza però... :( e pensare che ci siamo iscritti al forum ad un mese di distanza l'uno dall'altro, nel lontano 2003, hihi
tornando in topic, mi chiedevo...ad oggi esiste un gioco che ha tratto beneficio dagli oltre 512MB delle 8800? Voglio dire...esiste un gioco esistente che sia limitato da 512MB? E' pura curiosità...
Apix_1024
04-04-2007, 11:05
fukka75: ok...quale intransigenza però... :( e pensare che ci siamo iscritti al forum ad un mese di distanza l'uno dall'altro, nel lontano 2003, hihi
tornando in topic, mi chiedevo...ad oggi esiste un gioco che ha tratto beneficio dagli oltre 512MB delle 8800? Voglio dire...esiste un gioco esistente che sia limitato da 512MB? E' pura curiosità...
doom3 non voleva 512mb per le texture ultra high? che però ne servano più di 512 metterebbe fuori combattimento molte schede video... io non ne conosco di giochi così esosi:stordita: :stordita:
Foglia Morta
04-04-2007, 12:22
http://uk.theinquirer.net/?article=38714
R600 HAS A secret weapon, an internal sound card. This is the one thing that Nvidia's G8x can't match, other than HDCP on dual-link HDMI.
The ATI sound implementation is not GPGPU code. It is dedicated silicon, probably brought on by the Vista DRM infection and MS twisting arms to force it on people.
In any case, R600 will be compliant with the Vista requirements and can send sound directly over a HDCP/HDMI link. We are told this is a full HD sound setup, not a cheesy 2.1 channel thing.
In contrast, NV G8x parts can't do this. They have to run an external cable from the sound chip to the GPU. This may not sound like much but it blows out several kinds of auto configuration and worse yet violates Vista logo requirements http://www.microsoft.com/whdc/winlogo/HWrequirements.mspx. One has to wonder if this is why NV can't seem to make a functional Vista driver six months in.
The problem with Vista is that the DRM infection mandates that you do not share S/PDIF output over unencrypted links. R600 does this by combining audio and video streams, then pumping them out over HDCP infected links. This is user antagonistic DRM, but it complies with MS logo requirements, and they don't care about user experiences any more than the content mafiaa.
Add in that the R600 can do dual-link HDCP and you are going to be swimming in bandwidth, more than enough to pipe sound down.
Nvidia's G8x on the other hand can't do dual link HDCP at all, so if you have a 30-inch monitor, you will get a black screen. At that point, sound is the least of your problems.
Basically it looks like the sound card in R600 is going to be the killer app for home theatre type apps. G8x simply can not do what is needed here, buggy drivers or not. While the DRM infection stinks, at least R600 will be able to comply. µ
Alexkidd85
04-04-2007, 12:30
http://uk.theinquirer.net/?article=38714
R600 HAS A secret weapon, an internal sound card. This is the one thing that Nvidia's G8x can't match, other than HDCP on dual-link HDMI.
The ATI sound implementation is not GPGPU code. It is dedicated silicon, probably brought on by the Vista DRM infection and MS twisting arms to force it on people.
In any case, R600 will be compliant with the Vista requirements and can send sound directly over a HDCP/HDMI link. We are told this is a full HD sound setup, not a cheesy 2.1 channel thing.
In contrast, NV G8x parts can't do this. They have to run an external cable from the sound chip to the GPU. This may not sound like much but it blows out several kinds of auto configuration and worse yet violates Vista logo requirements http://www.microsoft.com/whdc/winlogo/HWrequirements.mspx. One has to wonder if this is why NV can't seem to make a functional Vista driver six months in.
The problem with Vista is that the DRM infection mandates that you do not share S/PDIF output over unencrypted links. R600 does this by combining audio and video streams, then pumping them out over HDCP infected links. This is user antagonistic DRM, but it complies with MS logo requirements, and they don't care about user experiences any more than the content mafiaa.
Add in that the R600 can do dual-link HDCP and you are going to be swimming in bandwidth, more than enough to pipe sound down.
Nvidia's G8x on the other hand can't do dual link HDCP at all, so if you have a 30-inch monitor, you will get a black screen. At that point, sound is the least of your problems.
Basically it looks like the sound card in R600 is going to be the killer app for home theatre type apps. G8x simply can not do what is needed here, buggy drivers or not. While the DRM infection stinks, at least R600 will be able to comply. µ
Ohhh...perfetto....ora si... :muro:
Ma che c'entra il sonoro con il comparto video!?Non esistono le sound card con il proprio processorino a togliere calcoli alla cpu!?
Ohhh...perfetto....ora si... :muro:
Ma che c'entra il sonoro con il comparto video!?Non esistono le sound card con il proprio processorino a togliere calcoli alla cpu!?
SE e solo SE fosse vero sarebbe l'ennesimo sintono di una totale convergenza verso la creazione di componenti davvero general purpose in tutti i sensi. I mercati di queste aziende si stanno come tutte del resto, ampliando e cercheranno probabilmente di mangiare laddove altri mangiano da tempo.
Vedi i chipset delle schede madri, southbridge, e un domani chissa' processori per differenti utilizzi sfruttando la logica del general purpose.
Alexkidd85
04-04-2007, 12:46
SE e solo SE fosse vero sarebbe l'ennesimo sintono di una totale convergenza verso la creazione di componenti davvero general purpose in tutti i sensi. I mercati di queste aziende si stanno come tutte del resto, ampliando e cercheranno probabilmente di mangiare laddove altri mangiano da tempo.
Vedi i chipset delle schede madri, southbridge, e un domani chissa' processori per differenti utilizzi sfruttando la logica del general purpose.
Si ma non vedo come si possano integrare 2 chip audio...come possano lavorare in parallelo...cioé...detta in maniera meno tecnica(non per mancanza vostra ma per mancanza mia,sia chiaro),come faranno a divedersi il lavoro.
Una cosa è certa...se ci sarà...servirà a qualcosa :D
Si ma non vedo come si possano integrare 2 chip audio...come possano lavorare in parallelo...cioé...detta in maniera meno tecnica(non per mancanza vostra ma per mancanza mia,sia chiaro),come faranno a divedersi il lavoro.
Una cosa è certa...se ci sarà...servirà a qualcosa :D
E' ovvio che in quest'ottica in una soluzione escludera' l'altra... ho parlato di mangiare laddove mangiano gli altri, non spartire. ;):p
Tutto e' ancora da vedere comunque.
Foglia Morta
04-04-2007, 13:26
Si ma non vedo come si possano integrare 2 chip audio...come possano lavorare in parallelo...cioé...detta in maniera meno tecnica(non per mancanza vostra ma per mancanza mia,sia chiaro),come faranno a divedersi il lavoro.
Una cosa è certa...se ci sarà...servirà a qualcosa :D
oddio... spero non ti riferisci all' audio crossfire :D
utilità forse ce ne può essere nei giochi. se non sbaglio con le schede x-fi si guadagnano un po di fps
Alexkidd85
04-04-2007, 13:56
oddio... spero non ti riferisci all' audio crossfire :D
utilità forse ce ne può essere nei giochi. se non sbaglio con le schede x-fi si guadagnano un po di fps
E il floppy crossfire!? :D
Scusate l'ot :stordita:
SE e solo SE fosse vero sarebbe l'ennesimo sintono di una totale convergenza verso la creazione di componenti davvero general purpose in tutti i sensi. I mercati di queste aziende si stanno come tutte del resto, ampliando e cercheranno probabilmente di mangiare laddove altri mangiano da tempo.
Vedi i chipset delle schede madri, southbridge, e un domani chissa' processori per differenti utilizzi sfruttando la logica del general purpose.
Credo che l'ìntegrazione di un chip audio serva solo a far si che dall'uscita hdmi si abbia sia un flusso video sia audio, per essere più conformi al protocollo HDCP. Senza doversi appoggiare ai chip audio integrati sulle schede madri. Quindi potrebbe essere molto plausibile come scelta.
Kharonte85
04-04-2007, 15:03
http://uk.theinquirer.net/?article=38714
R600 HAS A secret weapon, an internal sound card. This is the one thing that Nvidia's G8x can't match, other than HDCP on dual-link HDMI.
The ATI sound implementation is not GPGPU code. It is dedicated silicon, probably brought on by the Vista DRM infection and MS twisting arms to force it on people.
In any case, R600 will be compliant with the Vista requirements and can send sound directly over a HDCP/HDMI link. We are told this is a full HD sound setup, not a cheesy 2.1 channel thing.
In contrast, NV G8x parts can't do this. They have to run an external cable from the sound chip to the GPU. This may not sound like much but it blows out several kinds of auto configuration and worse yet violates Vista logo requirements http://www.microsoft.com/whdc/winlogo/HWrequirements.mspx. One has to wonder if this is why NV can't seem to make a functional Vista driver six months in.
The problem with Vista is that the DRM infection mandates that you do not share S/PDIF output over unencrypted links. R600 does this by combining audio and video streams, then pumping them out over HDCP infected links. This is user antagonistic DRM, but it complies with MS logo requirements, and they don't care about user experiences any more than the content mafiaa.
Add in that the R600 can do dual-link HDCP and you are going to be swimming in bandwidth, more than enough to pipe sound down.
Nvidia's G8x on the other hand can't do dual link HDCP at all, so if you have a 30-inch monitor, you will get a black screen. At that point, sound is the least of your problems.
Basically it looks like the sound card in R600 is going to be the killer app for home theatre type apps. G8x simply can not do what is needed here, buggy drivers or not. While the DRM infection stinks, at least R600 will be able to comply. µ
http://digilander.libero.it/arosati76/popo/05.png
Ma il caffe' non lo fa? :fagiano:
Francamente mi sembra Assolutamente assurdo (IMHO)...spero sia una sparata...
davide155
04-04-2007, 15:07
E' una sparata ;)
TecnoWorld8
04-04-2007, 15:10
sarei molto triste SE fosse vero. perchè se così fosse, significa che si stanno arrampicando agli specchi per fornire qualcosa più di G80...in mancanza di qualcosa di concreto (prestazioni, bassi consumi, ecc).
Purtroppo sono sempre più pessimista riguardo questo chip. Mai si è vista una scheda grafica top di gamma che viene elogiata per le proprie doti da HTPC...
appleroof
04-04-2007, 15:11
Ma il caffe' non lo fa? :fagiano:
Francamente mi sembra Assolutamente assurdo (IMHO)...spero sia una sparata...
E per questa mirabolante "secret weapon" che hanno tardato tanto?
http://www.tomshw.it/news.php?newsid=9625
Kharonte85
04-04-2007, 15:25
E per questa mirabolante "secret weapon" che hanno tardato tanto?
Ma spero vivamente di no...:asd:
sarei molto triste SE fosse vero. perchè se così fosse, significa che si stanno arrampicando agli specchi per fornire qualcosa più di G80...in mancanza di qualcosa di concreto (prestazioni, bassi consumi, ecc).
Purtroppo sono sempre più pessimista riguardo questo chip. Mai si è vista una scheda grafica top di gamma che viene elogiata per le proprie doti da HTPC...
Inquietante vero?
halduemilauno
04-04-2007, 15:54
Ma spero vivamente di no...:asd:
Inquietante vero?
Inquirertante.
;)
E' chiaro che uno non si compra una R600 per un link HDCP/HDMI . E' altrettanto vero che se il "kit" :D audio fosse presente anche sulle sorelle più piccole, allora avrebbe molto più senso.
Cmq sia, a me non dispiace la cosa. Meglio le prestazioni in 3d certo, ma non mi fa schifo :D
Non capisco lo stupore: che le R6xx avranno HDMI e chip HD Audio integrato lo avevano già confermato le slides postate durante il CeBIT e l'intervista a Vijay Sharma che ho postato io...
PCGH: Rick told us on the press conference that you had HD-Audio and HDMI integrated into the RV6x. Is that true for all R6x-products from top to bottom?
Vijay Sharma: Yes.
;)
Tra l'altro la presenza di queste features migliora l'esperienza in full HD, dato che è meglio che non accadano situazioni come questa...
http://www.theinquirer.net/default.aspx?article=35966
Per le prestazioni, ripeto che secondo me ATi non si vuole sbilanciare. Da quanto ho letto su internet Crysis (ma non ho capito se nella versione DX9 o DX10) potrebbe essere un macigno alle alte risoluzioni. Secondo fx57.net (sito però avvezzo a vari fake) le 8800GTX fanno 20-25 fps a 1900x1200...
http://www.fx57.net/?p=506
Spero sia falso...
TecnoWorld8
04-04-2007, 16:49
A.L.M.: lo stupore non è per la presenza dell'audio integrato, ma per il fatto che pare che AMD ne faccia la punta di diamante delle propria scheda di top livello...in altre occasioni (presentazione R300 per esempio) i motivi di vanto "pre lancio" erano le prestazioni del 50% superiori alle concorrenti...
appleroof
04-04-2007, 16:53
A.L.M.: lo stupore non è per la presenza dell'audio integrato, ma per il fatto che pare che AMD ne faccia la punta di diamante delle propria scheda di top livello...in altre occasioni (presentazione R300 per esempio) i motivi di vanto "pre lancio" erano le prestazioni del 50% superiori alle concorrenti...
esatto ;)
Non so se vecchia la notizia :stordita: cmq la posto:
R600 vs G80 testa a testa
http://img50.imageshack.us/img50/7389/37198as5.jpg (http://imageshack.us)
http://img50.imageshack.us/img50/8284/37199fy0.jpg (http://imageshack.us)
http://img50.imageshack.us/img50/2812/37200ug9.jpg (http://imageshack.us)
Tutto il resto qua:http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Ps. comunque non è chiaro se si tratta di x2800 o di x2900 :confused: per me x2800, xke con uscita (in breve) G90 @65nm Ati deve rispondere con una nuova scheda..
Saluti.. ;)
TecnoWorld8
04-04-2007, 17:51
penso sia qualcosa risalente a 3 mesi fa abbondanti...
halduemilauno
04-04-2007, 17:52
Non so se vecchia la notizia :stordita: cmq la posto:
Saluti.. ;)
bastava vedere la data.
;)
http://level505.com/wp-content/uploads/2006/12/ati-r600-oblivion2-16001200.jpg
In effetti Nvidia deve rispondere con una nuova scheda se si tratta di X2800.
http://level505.com/wp-content/uploads/2006/12/ati-r600-oblivion2-16001200.jpg
In effetti Nvidia deve rispondere con una nuova scheda se si tratta di X2800.
Infatti se la notizia è vecchia allora si tratta di x2800 :confused: :stordita:
appleroof
04-04-2007, 18:16
Non so se vecchia la notizia :stordita: cmq la posto:
R600 vs G80 testa a testa
http://img50.imageshack.us/img50/7389/37198as5.jpg (http://imageshack.us)
http://img50.imageshack.us/img50/8284/37199fy0.jpg (http://imageshack.us)
http://img50.imageshack.us/img50/2812/37200ug9.jpg (http://imageshack.us)
Tutto il resto qua:http://level505.com/2006/12/30/the-full-ati-r600-test/1/
Ps. comunque non è chiaro se si tratta di x2800 o di x2900 :confused: per me x2800, xke con uscita (in breve) G90 @65nm Ati deve rispondere con una nuova scheda..
Saluti.. ;)
è un fake vecchio di mesi ;)
Kharonte85
04-04-2007, 18:29
Inquirertante.
;)
:D
è un fake vecchio di mesi ;)
Fake resort...:D
Foglia Morta
04-04-2007, 18:32
pare sia R600 vs G80 630/1030Mhz
http://www.fx57.net/?p=550
AMD-ATi’nin üzerinde uzun süredir çalıştığı R600 artık hazır gibi. Zira AMD satış müdürü Henri Richard yaptığı açıklamayla R600′ün an itibariyle satışa hazır olduğunu belirtti. Ayrıca yine bay Richard açıklamasında R600′ün gecikme sebebinin herhangi bir sorundan kaynaklanmadığını, asıl sebebin firmanın tüm segmentlerde yeni nesil DX10 destekli çözümlerini eş zamanlı olarak piyasaya sürmek istemesinden kaynaklanıyormuş.
Bu açıklamayı takiben OCWorkbench yeni bir test sonucu yayınladı. Yapıldığı belirtilen bu teste göre, ATi R600′ün karşısına Asus’un su soğutmalı GeForce 8800GTX modeli olan AquaTank koylmuş. Bilindiği gibi Asus’un su soğutmalı modelinin saat hızları standart hızlar olan 575/1800MHz yerine arttırılmış olarak 630/1030MHz geliyor. Sonuçlar şöyle,
Test sistemi;
- İşlemci: Core 2 Extreme X6800
- 965 yonga setli anakart
Test sonucu - 3DMark 2006
- ATi R600: 12500
- Asus GeForce 8800GTX Aquatank: 11391
ATi’nin R600 programı;
23-25 Nisan’da Tunusta basın tanıtımı - 14 Mayıs’ta ise büyük bir olasılıkla resmi lansman yapılacak.
http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61600
From our doggies hunting for information in the wild. They found out that the upcoming ATi R600 benchmark is higher than 8800GTX watercooled.
The comparison is done based on the ASUS EN8800GTX Aquatank we tested before which is clocked at 630/1030. In 3Dmark06, the ASUS card scored 11391.
As for the R600 which is run on a similar platform using a i965P board with X6800, it scored around 12500.
The scores of the R600 are preliminary, but it shows us that the R600 is indeed a superior DX10 card that awaits to be unveiled.
Lets wait for 14 May 2007. If nothing does wrong, we shall see them on the shelves by then.
appleroof
04-04-2007, 18:34
OT
Ma che cacchio di lingua è? :asd: :asd:
/OT
Skullcrusher
04-04-2007, 18:37
E' una sparata ;)
Concordo.
OT
Ma che cacchio di lingua è? :asd: :asd:
/OT
Turco.
halduemilauno
04-04-2007, 18:47
OT
Ma che cacchio di lingua è? :asd: :asd:
/OT
turco.
;)
appleroof
04-04-2007, 18:53
turco.
;)
ho capito......:D
halduemilauno
04-04-2007, 18:55
ho capito......:D
non avevo visto che ti era gia stato risposto.
;)
appleroof
04-04-2007, 19:00
non avevo visto che ti era gia stato risposto.
;)
;)
Non capisco lo stupore: che le R6xx avranno HDMI e chip HD Audio integrato lo avevano già confermato le slides postate durante il CeBIT e l'intervista a Vijay Sharma che ho postato io...
;)
Tra l'altro la presenza di queste features migliora l'esperienza in full HD, dato che è meglio che non accadano situazioni come questa...
http://www.theinquirer.net/default.aspx?article=35966
...come ha scritto A.L.M. tutte le vga basate su R600 avranno sul pcb un chip dedicato all'audio HD e alle funzioni HDMI. Questa cosa si sapeva già dal Cebit perchè l'aveva comunicata AMD in una conferenza (tra i miei post trovate il resoconto di quella conferenza). Non sarà questa la "secret weapon", anche perchè mi viene difficile pensare ad una "secret weapon" già presentata ufficialmente... Invece mi viene molto più semplice pensare che TheInq ha scritto il solito titolo tanto per spararla lì... :D
:)
davide155
04-04-2007, 19:32
Quei test non hanno la benchè minima fonte sicura.
Un untente con un nome strampalato ha scritto questi punteggi perchè si è alzato storto una mattina......
Riuscirebbe a tutti :rolleyes:
Si fa pure noi? :D
3D Mark 2006:
R600: 5032452465843246546216542541 punti
G80: 11573 punti
Vediamo se mi credono :rolleyes:
Athlon 64 3000+
04-04-2007, 19:40
in quel rumors Fx-57 cita sia il 23-25 aprile che il 14 maggio,ma non riesco a capire quale delle 2 date sarà la presentazione ufficiale.
TecnoWorld8
05-04-2007, 00:32
se i test fossero veri, R600 sarebbe superiore del 9% rispetto alla GTX overclockata. Cosa farebbe nel 3dmark una GTX liscia, con il resto delle configurazione identica? Supererebbe i 10000?
TecnoWorld8
05-04-2007, 00:52
mi rispondo da solo citando questo:
http://www.ocworkbench.com/2007/asus/EN8800GTX-aquatank/b2.htm
guarda caso, la aquatank fa segnare ESATTAMENTE lo stesso punteggio al 3d Mark 2006...questo mi fa pensare ad un fake, per la news sul sito fx57
Foglia Morta
05-04-2007, 09:08
mi rispondo da solo citando questo:
http://www.ocworkbench.com/2007/asus/EN8800GTX-aquatank/b2.htm
guarda caso, la aquatank fa segnare ESATTAMENTE lo stesso punteggio al 3d Mark 2006...questo mi fa pensare ad un fake, per la news sul sito fx57
leggile le news prima di commentarle... fx57 riporta esplicitamente ciò che ocworkbench riferisce qui http://my.ocworkbench.com/bbs/showthread.php?%20threadid=61600
gianni1879
05-04-2007, 09:20
quindi è un fake o no??
Alexander 80
05-04-2007, 09:43
salve comq secondo me questa scheda video nemmeno il tempo che esce non avra nessuna vita perchè sara contrastata dalle 8800ultra e dalla 8950 gx(che non ci sara paragone).
quindi è un fake o no??
Lo sapremo solo quando ci saranno risultati ufficiali, cioè (forse) a fine mese: in questo thread ci si eccita e ci si deprime nel giro di 5 minuti (i bench che danno R600 davanti sono veri, le news che la danno come forno ciuccia energia invece sono fake, mah ...) :rolleyes:
Andrea deluxe
05-04-2007, 10:03
la 8850gx2 non mi pare una buona cosa!
hai 2000fps con i 2 giochi che supportano lo sli e gli stessi fotogrammi di una 8800gts con tutti gli alti!
bullshit
davide155
05-04-2007, 10:20
Lo sapremo solo quando ci saranno risultati ufficiali, cioè (forse) a fine mese: in questo thread ci si eccita e ci si deprime nel giro di 5 minuti (i bench che danno R600 davanti sono veri, le news che la danno come forno ciuccia energia invece sono fake, mah ...) :rolleyes:
Io invece sono stato il primo a dire che è una presa di culo.
Sia dove r600 scalda un botto e consuma un botto, e sia dove c'è r600 davanti alla 8800gtx.
Come il famoso test di crysis fatto su una 8800gtx e un quad core intel......che poi si è rivelato un mega FAKE :rolleyes:
la 8850gx2 non mi pare una buona cosa!
hai 2000fps con i 2 giochi che supportano lo sli e gli stessi fotogrammi di una 8800gts con tutti gli alti!
bullshit
Sarà OT ma quoto, le schede dual GPU sono una porcheria architetturale :D (ati o nvidia non importa ;) )
Il dipendere da profili SLI o Crossfire è una rottura di scatole, senza considerare la mancanza di dissi di qualità per rimpiazzare quelli stock che in genere fanno pietà :eek:
la 8850gx2 non mi pare una buona cosa!
hai 2000fps con i 2 giochi che supportano lo sli e gli stessi fotogrammi di una 8800gts con tutti gli alti!
bullshit
2 giochi, già ... un po' di obbiettività non guasta, che dici?
oblivion, tutti i source games, quake4, coh, battlefield, gtr, prey, serious sam2, x3, fear, devo continuare?
davide155
05-04-2007, 11:09
Ecco a voi la tech demo di r600
http://youtube.com/watch?v=EJ6aMxPh6k0
Il video è di qualità molto bassa.....ma si riesce a distinguere quello che succede in video :D
Cosa ne pensate?
Foglia Morta
05-04-2007, 11:11
Cosa ne pensate?
che è da molto tempo che non segui il thread...
Apix_1024
05-04-2007, 11:13
Ecco a voi la tech demo di r600
http://youtube.com/watch?v=EJ6aMxPh6k0
Il video è di qualità molto bassa.....ma si riesce a distinguere quello che succede in video :D
Cosa ne pensate?
era già stata postata un mesetto fa circa... cmq le tech demo sono fatte apposta per rullare al massimo...;)
davide155
05-04-2007, 11:14
che è da molto tempo che non segui il thread...
Ops :D :D
Cmq non mi è piaciuta per nulla......
anno cambiato anche il viso a ruby.
Troppo pacchiana........troppo pottona........
Kharonte85
05-04-2007, 11:22
Ecco a voi la tech demo di r600
http://youtube.com/watch?v=EJ6aMxPh6k0
Il video è di qualità molto bassa.....ma si riesce a distinguere quello che succede in video :D
Cosa ne pensate?
:eek:
Mega :old: :asd:
Cmq anche a me Ruby piaceva piu' prima...:fagiano:
Cosa ne pensate?
che figa :fagiano:
è olderrima....cmq a me era piaciuta abbastanza.
TecnoWorld8
05-04-2007, 12:24
Foglia Morta: non avevo visto riferimento ad ocworkbench. devo dire che quest'ultimo è un sito che stimo molto, quindi sono propenso a credere che tale notizia sia vera.
Se davvero la scheda facesse circa 12500 punto al 3dmark 2006 con driver non ancora definitivi, sarebbe circa 20% superiore (in quel test) ad una GTX "liscia" e penso sarà circa eguagliata dall'ipotetica Ultra (o come la chiameranno).
Sarà poi molto interessante vedere cosa capita nel dx10...
davide155
05-04-2007, 12:42
Foglia Morta: non avevo visto riferimento ad ocworkbench. devo dire che quest'ultimo è un sito che stimo molto, quindi sono propenso a credere che tale notizia sia vera.
Se davvero la scheda facesse circa 12500 punto al 3dmark 2006 con driver non ancora definitivi, sarebbe circa 20% superiore (in quel test) ad una GTX "liscia" e penso sarà circa eguagliata dall'ipotetica Ultra (o come la chiameranno).
Sarà poi molto interessante vedere cosa capita nel dx10...
Ognuno la pensa come vuole, ma quelle non sono notizie ufficializzate da amd, ma solo da un utente sconosciuto.
E può essere pure il forum più attendibile del mondo, ma finchè non vedo non credo :O
Apix_1024
05-04-2007, 14:07
Foglia Morta: non avevo visto riferimento ad ocworkbench. devo dire che quest'ultimo è un sito che stimo molto, quindi sono propenso a credere che tale notizia sia vera.
Se davvero la scheda facesse circa 12500 punto al 3dmark 2006 con driver non ancora definitivi, sarebbe circa 20% superiore (in quel test) ad una GTX "liscia" e penso sarà circa eguagliata dall'ipotetica Ultra (o come la chiameranno).
Sarà poi molto interessante vedere cosa capita nel dx10...
edit pensavo fosse il topic della 8600gts... mi sono fumato il cervello!:D :D
TecnoWorld8
05-04-2007, 14:12
Apix_1024: a cosa ti riferisci? il valore di oltre 10000 per le 8800gtx è proprio il 3d Mark 2006...nel 2005 fanno ben oltre 15000! dopotutto già la mia configurazione in sign supera i 10000 nel 2005!
Apix_1024
05-04-2007, 14:14
Apix_1024: a cosa ti riferisci? il valore di oltre 10000 per le 8800gtx è proprio il 3d Mark 2006...nel 2005 fanno ben oltre 15000! dopotutto già la mia configurazione in sign supera i 10000 nel 2005!
si si lascia stare! mi sono fuso... tra seguire il topic della 8600gts e questo dell'r600 ho iniziato a sbarellare di brutto!!!:sofico: :sofico:
TecnoWorld8
05-04-2007, 14:24
tranki! :)
Athlon 64 3000+
05-04-2007, 14:33
http://www.fudzilla.com/index.php?option=com_content&task=view&id=424&Itemid=1
A sharp eye of a reader noticed that ATI officially referred to one of its products as Radeon X2900 series. AMD will call it typo and we will call it a to big to be a coincidence.
This is what AMD claims. " 737-26661: The Catalyst Control Center intermittently disappears when running in the background of the Windows XP Professional x64 Edition operating system
The information in this article applies to the following configuration(s):
Catalyst Control Center
Radeon™ X2900 series
Windows XP Professional x64 Edition
halduemilauno
05-04-2007, 14:53
http://www.fudzilla.com/index.php?option=com_content&task=view&id=424&Itemid=1
A sharp eye of a reader noticed that ATI officially referred to one of its products as Radeon X2900 series. AMD will call it typo and we will call it a to big to be a coincidence.
This is what AMD claims. " 737-26661: The Catalyst Control Center intermittently disappears when running in the background of the Windows XP Professional x64 Edition operating system
The information in this article applies to the following configuration(s):
Catalyst Control Center
Radeon™ X2900 series
Windows XP Professional x64 Edition
o meno male va.
;)
davide155
05-04-2007, 14:59
Ma che vuol dire?
Che nei driver ati per win xp 64bit c'è il supporto per le x2900?
Oppure ho capito male io?
TecnoWorld8
05-04-2007, 15:11
non capisco perchè ci sia tutta questa speranza sul nome...da chiamarlo 2800 o 2900 tanto purtroppo il chip sarà ad 80nm e consumerà 200w almeno...o no?
Apix_1024
05-04-2007, 15:14
non capisco perchè ci sia tutta questa speranza sul nome...da chiamarlo 2800 o 2900 tanto purtroppo il chip sarà ad 80nm e consumerà 200w almeno...o no?
le ultime indiscrezioni dicevano se non sbaglio sui 160watt:rolleyes:
non capisco perchè ci sia tutta questa speranza sul nome...da chiamarlo 2800 o 2900 tanto purtroppo il chip sarà ad 80nm e consumerà 200w almeno...o no?
Anche perchè non è detto che se si chiamasse subito x2900 non possa essere surclassata a breve dal refresh a 65nm ( x2950 :ciapet: )
A parte gli scherzi, ora abbiamo x2800 sui requisiti consigliati per giocare a stalker, e x2900 su winxp... :wtf:
TecnoWorld8
05-04-2007, 15:34
diciamo che l'unica cosa che mi farebbe sentire più tranquillo sarebbe che si dicesse che la GPU sarà a 65nm nelle schede retail, ma ormai ho rinunciato a sperarci. come già detto, non sto dicendo che 80nm = schifo (anzi), ma solo che ovviamente preferirei il processo produttivo più recente possibile, per mettermi più "al sicuro" nel caso di acquisto
Athlon 64 3000+
05-04-2007, 15:44
con il fatto di aver trovato quel nome sul sito della Ati penso proprio che la scheda si chiamerà X2900 e vedremo se sarà a 80 nm o a 65.
Se X2900 è a 80 nm a fine anno potrebbe uscire la X2950 a 65 nm.
TecnoWorld8
05-04-2007, 16:06
il fatto è che il processo produttivo a 65nm è dietro l'angolo sia per nvidia che per ATi. Lo si sa. Ma mentre per nvidia la scheda a 90nm è uscita 6 mesi fa (quando il nuovo processo NON era imminente), ATi fa uscire una scheda ad 80nm ora...e questo fa temere nella scarsa longevità nei confronti di una prossima uscita a 65nm magari dopo 3 mesi
avesse anche prestazioni simili, sicuramente scalderebbe e consumerebbe meno
halduemilauno
05-04-2007, 16:07
cmq a chi chiedeva lumi sulle date dal 23 al 25 aprile presentazione alla stampa e il 14 maggio inizio vendite con fine nda prossima alla seconda data.
questo dovrebbe essere.
;)
Athlon 64 3000+
05-04-2007, 16:10
cmq a chi chiedeva lumi sulle date dal 23 al 25 aprile presentazione alla stampa e il 14 maggio inizio vendite con fine nda prossima alla seconda data.
questo dovrebbe essere.
;)
quindi secondo tè l'nda scadrebbe il 14 maggio?
halduemilauno
05-04-2007, 16:18
quindi secondo tè l'nda scadrebbe il 14 maggio?
a quanto ho potuto capire. per carità felice di essermi sbagliato e che il tutto si sappia il 25 aprile.
;)
davide155
05-04-2007, 18:43
a quanto ho potuto capire. per carità felice di essermi sbagliato e che il tutto si sappia il 25 aprile.
;)
Ma l'nda non cade assieme alla presentazione? :mbe:
Cioè non viene tolto assieme ai veli? :)
Che senso avrebbe tenere l'nda anche dopo la presentazione.....dopo che sappiamo come è fatta e come va......? no?
halduemilauno
05-04-2007, 18:48
Ma l'nda non cade assieme alla presentazione? :mbe:
Cioè non viene tolto assieme ai veli? :)
Che senso avrebbe tenere l'nda anche dopo la presentazione.....dopo che sappiamo come è fatta e come va......? no?
be no. la scheda in fase di presentazione alla stampa specializzata al termine vengono dati esemplari per le varie rece. quindi come minimo i tempi tecnici.
cmq rimaniamo in attesa.
;)
davide155
05-04-2007, 19:01
be no. la scheda in fase di presentazione alla stampa specializzata al termine vengono dati esemplari per le varie rece. quindi come minimo i tempi tecnici.
cmq rimaniamo in attesa.
;)
Io spero che sia il 25 aprile......non ne posso più di aspettare. Voglio vedere questa scheda video all'opera!
E sono curiosissimo della tech demo sulla simulazione dell'acqua in real time :sbav:
TecnoWorld8
05-04-2007, 19:10
a proposito della simulazione dell'acqua...non doveva essere mostrata una seconda immagine?!? non è mai stata postata, vero?
Skullcrusher
05-04-2007, 19:12
be no. la scheda in fase di presentazione alla stampa specializzata al termine vengono dati esemplari per le varie rece. quindi come minimo i tempi tecnici.
cmq rimaniamo in attesa.
;)
Esatto, funziona proprio così. Se la scheda è quindi presentata agli addetti del settore verso il 23 aprile, è molto probabile che l'Nda scada per il 14 maggio come hai detto tu ;)
davide155
05-04-2007, 19:17
a proposito della simulazione dell'acqua...non doveva essere mostrata una seconda immagine?!? non è mai stata postata, vero?
No ancora nulla dal sito.....
davide155
05-04-2007, 19:18
Esatto, funziona proprio così. Se la scheda è quindi presentata agli addetti del settore verso il 23 aprile, è molto probabile che l'Nda scada per il 14 maggio come hai detto tu ;)
Per g80 cosa è accaduto?
appleroof
05-04-2007, 19:19
Per g80 cosa è accaduto?
Mi pare di ricordare che la scadenza dell'nda sia coincisa con la disponibilità della scheda negli store (8 novembre scorso, se non sbaglio)
davide155
05-04-2007, 19:21
Mi pare di ricordare che la scadenza dell'nda sia coincisa con la disponibilità della scheda negli store (8 novembre scorso, se non sbaglio)
E la presentazione?
E' stata sempre l'8 novembre?
Se si allora la storia insegna :O
Skullcrusher
05-04-2007, 19:23
Mi pare di ricordare che la scadenza dell'nda sia coincisa con la disponibilità della scheda negli store (8 novembre scorso, se non sbaglio)
Esatto. L'hanno presentata a porte chiuse agli addetti del settore, l'nda è scaduto dopo un tot di giorni ( un 2 settimane dopo la presentazione ), in coincidenza con la disponibilità, ma non ricordo date precise.
appleroof
05-04-2007, 19:27
E la presentazione?
E' stata sempre l'8 novembre?
Se si allora la storia insegna :O
Dovrebbe insegnare molto ad ati, da questo punto di vista, viste le ultime...:D
davide155
05-04-2007, 19:30
Dovrebbe insegnare molto ad ati, da questo punto di vista, viste le ultime...:D
Te l'ho servita su un piatto d'argento :O :D :D
Cmq quello che volevo sapere era se l'nda di g80 è caduto assieme alla presentazione, oppure assieme alla messa in vendita.
appleroof
05-04-2007, 19:34
Te l'ho servita su un piatto d'argento :O :D :D
Cmq quello che volevo sapere era se l'nda di g80 è caduto assieme alla presentazione, oppure assieme alla messa in vendita.
l'nda è caduto contemporaneamente alla vendita (sono già passati 5 mesi :eek: ..... ), la presentazione a porte chiuse, come diceva skullcrasher, è stata poco prima ;)
cmq, si è aspettato per mesi, un paio di settimane avanti indietro non faranno la differenza...o no? :stordita:
davide155
05-04-2007, 19:41
l'nda è caduto contemporaneamente alla vendita (sono già passati 5 mesi :eek: ..... ), la presentazione a porte chiuse, come diceva skullcrasher, è stata poco prima ;)
cmq, si è aspettato per mesi, un paio di settimane avanti indietro non faranno la differenza...o no? :stordita:
Per me si :Perfido:
Athlon 64 3000+
05-04-2007, 19:42
Io spero che sia il 25 aprile......non ne posso più di aspettare. Voglio vedere questa scheda video all'opera!
E sono curiosissimo della tech demo sulla simulazione dell'acqua in real time :sbav:
Quoto.
Ormai mi sono rotto di aspettare.
Spero proprio che l'NDA scada il 25 aprile.
davide155
05-04-2007, 19:53
Quoto.
Ormai mi sono rotto di aspettare.
Spero proprio che l'NDA scada il 25 aprile.
Ovvia!
Scioperiamo.......facciamo rivolte!
Facciamoglielo capire a quei boscaioli canadesi che ci siamo rotti di aspettare:O
Facciamoglielo capire a quei boscaioli canadesi che ci siamo rotti di aspettare:O
:rotfl:
-ArtOfRight-
05-04-2007, 20:06
Ciao
Ho letto del chip audio integrato nella gpu
Ma si potrà usare come scheda audio o no????
[in realtà non ho ben capito neanche se si tratti di una reale scheda audio o solo di un ponte fra la scheda audio e l'uscita hdmi]
Se sì, si potrà usare indipendentemente dall'hdmi????
Potrebbe essere un gran bel jolly, per chi come me ha in mente di cambiare scheda video e audio in tempi brevi...
TecnoWorld8
05-04-2007, 20:30
:eek:
http://www.bootdaily.com/index.php?option=com_content&task=view&id=395&Itemid=59
We've been able to confirm pricing on ATI's upcoming R600-series GPUs - here's the breakdown:
R600 $499.00
R630 XT $199.00
R630 Pro $179.00
R610 $99.00
Se veramente fosse così, due sarebbero le possibilità:
1) R600 è inferiore di 8800GTX come prestazione
2) ATi vuole farsi perdonare l'attesa
Mister Tarpone
05-04-2007, 20:32
:eek:
http://www.bootdaily.com/index.php?option=com_content&task=view&id=395&Itemid=59
We've been able to confirm pricing on ATI's upcoming R600-series GPUs - here's the breakdown:
R600 $499.00
R630 XT $199.00
R630 Pro $179.00
R610 $99.00
Se veramente fosse così, due sarebbero le possibilità:
1) R600 è inferiore di 8800GTX come prestazione
2) ATi vuole farsi perdonare l'attesa
la seconda...
TecnoWorld8
05-04-2007, 20:34
Se davvero costasse attorno ai 500 euro qui in italia e andasse almeno 10% più di una GTX, penso che moltissimi la prenderebbero.
Kharonte85
05-04-2007, 20:36
Se veramente fosse così, due sarebbero le possibilità:
1) R600 è inferiore di 8800GTX come prestazione
2) ATi vuole farsi perdonare l'attesa
Entrambe vere.
davide155
05-04-2007, 20:48
:eek:
http://www.bootdaily.com/index.php?option=com_content&task=view&id=395&Itemid=59
We've been able to confirm pricing on ATI's upcoming R600-series GPUs - here's the breakdown:
R600 $499.00
R630 XT $199.00
R630 Pro $179.00
R610 $99.00
Se veramente fosse così, due sarebbero le possibilità:
1) R600 è inferiore di 8800GTX come prestazione
2) ATi vuole farsi perdonare l'attesa
Non sono ancora così pollo da credere a queste news.........nulla di ufficiale ancora
Aprite gli occhi ragazzi.......non fatevi ciulare dal primo che passa dai.........
appleroof
05-04-2007, 21:12
Non sono ancora così pollo da credere a queste news.........nulla di ufficiale ancora
Aprite gli occhi ragazzi.......non fatevi ciulare dal primo che passa dai.........
Anche se fossero quelli i prezzi, ci sarebbe da aggiungere la cara Iva italiana frizzi e lazzi e quindi la top verrebbe sui 600 euro e via così...:rolleyes:
Mister Tarpone
05-04-2007, 21:30
Anche se fossero quelli i prezzi, ci sarebbe da aggiungere la cara Iva italiana frizzi e lazzi e quindi la top verrebbe sui 600 euro e via così...:rolleyes:
hai ragione... :rolleyes:
Ciao
Ho letto del chip audio integrato nella gpu
Ma si potrà usare come scheda audio o no????
[in realtà non ho ben capito neanche se si tratti di una reale scheda audio o solo di un ponte fra la scheda audio e l'uscita hdmi]
Se sì, si potrà usare indipendentemente dall'hdmi????
Potrebbe essere un gran bel jolly, per chi come me ha in mente di cambiare scheda video e audio in tempi brevi...
Ma credi che il chip audio che integreranno in R6x0 sia migliore di uno integrato in una scheda madre ??? Quel chip serve solo a rendere al 100% compatibile la vga con HDCP, non a sostituire una scheda audio integrata o su slot. Le news parlano di chip audio.
davide155
05-04-2007, 23:22
Anche se fossero quelli i prezzi, ci sarebbe da aggiungere la cara Iva italiana frizzi e lazzi e quindi la top verrebbe sui 600 euro e via così...:rolleyes:
Anche.....quindi sono sempre da evitare certe news. Qualsiasi sia la loro veridicità :O
TecnoWorld8
05-04-2007, 23:39
attualmente una GTX costa negli usa dai 559$ in su, ed in Italia a meno di 550€ la si trova...
quindi se la R600 costasse veramente 499$ io conterei di trovarla a 500€ che per una scheda al top appena uscita sarebbe relativamente poco...
Apix_1024: a cosa ti riferisci? il valore di oltre 10000 per le 8800gtx è proprio il 3d Mark 2006...nel 2005 fanno ben oltre 15000! dopotutto già la mia configurazione in sign supera i 10000 nel 2005!
Infatti io faccio 10800 al 3DMark 06 con la 8800GTS 320mb :D
Athlon 64 3000+
06-04-2007, 10:01
ieri era venuto fuori su fudzilla che sul sito Ati era comparlo in un pagina del supporto driver il nome X2900.
Questa mattina per curiosità mi sono accorto che hanno cambiato il nome in X1900:
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=26661
Sono stati veloci quelli di AMD a correggere
:D
Kharonte85
06-04-2007, 10:25
ieri era venuto fuori su fudzilla che sul sito Ati era comparlo in un pagina del supporto driver il nome X2900.
Questa mattina per curiosità mi sono accorto che hanno cambiato il nome in X1900:
http://support.ati.com/ics/support/default.asp?deptID=894&task=knowledge&questionID=26661
Sono stati veloci quelli di AMD a correggere
:D
:asd:
Finally, 'confirmed' pricing on the R6xx series. The R600 will cost $499, 630 XT $199, 630 Pro $179, and 610 $99. Given the massive variation in SKUs likely to take place, this seems rather like an overly-simplified perspective. Take those with a pinch of salt or, more seasonally, a gob-full of chocolate. µ
http://www.theinquirer.net/default.aspx?article=38762
Alexkidd85
06-04-2007, 11:39
Domanda niubba...ma 630xt...è la x2800/2900 xt!?
Mister Tarpone
06-04-2007, 11:41
Domanda niubba...ma 630xt...è la x2800/2900 xt!?
x2600xt
halduemilauno
06-04-2007, 12:06
http://www.fudzilla.com/index.php?option=com_content&task=view&id=443&Itemid=1
April in Tunis, Tunisia + Barcelona demo
ATI will hold its R600 tech days on the Monday 23rd till Tuesday 24rd of April in Tunis, Tunisia in African continent. This is the first major graphic launch to take place in Africa.
DAAMIT invited bunch of journalists about 185 if we remember correctly for this event and ATI will show some hot things such as RD790 chipsets and ten display R600 setup powered with Agena FX CPU (a desktop version of native quad core also known as Barcelona).
R600 will debut in external version as well and all this will be demonstrated on the 23rd and 24th of April in Tunisia.
The official launch will be in May probably at the middle of the month when ATI manages to get any R600 1024 MB cards out of production.
;)
Athlon 64 3000+
06-04-2007, 12:06
http://www.fudzilla.com/index.php?option=com_content&task=view&id=443&Itemid=1
ATI will hold its R600 tech days on the Monday 23rd till Tuesday 24rd of April in Tunis, Tunisia in African continent. This is the first major graphic launch to take place in Africa.
DAAMIT invited bunch of journalists about 185 if we remember correctly for this event and ATI will show some hot things such as RD790 chipsets and ten display R600 setup powered with Agena FX CPU (a desktop version of native quad core also known as Barcelona).
R600 will debut in external version as well and all this will be demonstrated on the 23rd and 24th of April in Tunisia.
The official launch will be in May probably at the middle of the month when ATI manages to get any R600 1024 MB cards out of production.
Kharonte85
06-04-2007, 12:29
Ehm ha fatto prima HAL...:D
In Africa...:mbe:
halduemilauno
06-04-2007, 12:30
Ehm ha fatto prima HAL...:D
;)
Alexkidd85
06-04-2007, 12:53
Ehm ha fatto prima HAL...:D
In Africa...:mbe:
Mi sembra che questa notizia era già stata vociferata o mi sbaglio!?:confused:
Kharonte85
06-04-2007, 12:54
Mi sembra che questa notizia era già stata vociferata o mi sbaglio!?:confused:
si', lo diceva The INQ ;)
In Africa...:mbe:
http://img128.imageshack.us/img128/8203/20060125074957looksisi3qv4.gif
davide155
06-04-2007, 13:26
Ehm ha fatto prima HAL...:D
In Africa...:mbe:
Posto alquanto angusto per un lancio di tecnologia video avanzata......ma tutto il mondo è paese quindi...... :O
Ecco a voi la tech demo di r600
http://youtube.com/watch?v=EJ6aMxPh6k0
Il video è di qualità molto bassa.....ma si riesce a distinguere quello che succede in video :D
Cosa ne pensate?
Gran gnocca, chissà certi particolari della signorina come rendono sulla R600 :D , a me pare che assomigli ad Allie Sin..:sbav:
Alexkidd85
06-04-2007, 14:47
Gran gnocca, chissà certi particolari della signorina come rendono sulla R600 :D , a me pare che assomigli ad Allie Sin..:sbav:
A me sembra che con tutto quello che potevano creare...anche una "giorgia palmas" mi andava meglio di ruby :D ma pareri :p
Deschutes
07-04-2007, 08:35
A me sembra che con tutto quello che potevano creare...anche una "giorgia palmas" mi andava meglio di ruby :D ma pareri :p
xchè la butti ... una deliziosa bambolina come giorgia palmas? :D
Io no ... anzi la baratto volentieri con una 2900XTX :)
buone feste a tutti
http://www.fudzilla.com/index.php?option=com_content&task=view&id=443&Itemid=1
ATI will hold its R600 tech days on the Monday 23rd till Tuesday 24rd of April in Tunis, Tunisia in African continent. This is the first major graphic launch to take place in Africa.
DAAMIT invited bunch of journalists about 185 if we remember correctly for this event and ATI will show some hot things such as RD790 chipsets and ten display R600 setup powered with Agena FX CPU (a desktop version of native quad core also known as Barcelona).
R600 will debut in external version as well and all this will be demonstrated on the 23rd and 24th of April in Tunisia.
The official launch will be in May probably at the middle of the month when ATI manages to get any R600 1024 MB cards out of production.
:old: Effettivamente si sapeva da un po' :Prrr: . Nell'augurare a tutto i 3D buone vacanze spero vivamente che queste nuove schede arrivino presto sul mercato :D.
EDITED by Simon82
E' lei dai, uguale!!!! Bella ATI! Sta scheda è na bomba.......sexy..
TecnoWorld8
07-04-2007, 18:40
ehm...un sito porno?!?!?!?!?!?!?!??!?!?!!?!?!?!?!??! :eek:
EDITED by Simon82
E' lei dai, uguale!!!! Bella ATI! Sta scheda è na bomba.......sexy..
Ma diamo i numeri? :rolleyes:
Sospeso 5 giorni.
ma no dai...bisognava soltanto copiare il link e incollarlo in un'altra pagina per vedere la foto (per niente porno)
;)
ma no dai...bisognava soltanto copiare il link e incollarlo in un'altra pagina per vedere la foto (per niente porno)
;)
Ok ma se facendo quello che il 90% delle persone faranno compare un sito porno, ragazzi, questi link non vanno bene su questo tipo di forum. ;)
nikkolla
09-04-2007, 05:11
Se x2900xtx o come si chiamerà il top ati farà 12500 punti al 3dmark2006 e sarà messa in vendita a 499 dollari che normalmente diventano in europa 499 euro ,italia esclusa ,(559 dollari esentasse era il prezzo nvidia delle 8800gtx e in germania da subito c'erano le 8800gtx a 559 euro ,altro esempio x1900xtx 399 dollari e a 399 euro appena uscite si trovavano in germania) o Amd/ati vuol fare il babbo natale fuori stagione o qualcosa non torna
o non fa quei punteggi o il prezzo di lancio sarà più alto
TecnoWorld8
09-04-2007, 09:32
consideriamo che nVidia sta per immettere sul mercato una versione Ultra che plausibilmente farà circa quel punteggio anch'essa. Può anche essere, dunque, che si decida di far costare il top di gamma sui 500 euro per entrambe le case, abbassando le altre di conseguenza. Prima nVidia ha potuto chiedere un "premiun price" dovuto al fatto di avere l'unica scheda dx10 sul mercato, ora ATi è in fortissimo ritardo e deve farsi perdonare e nVidia stessa ha la tecnologia, dunque fare la Ultra non le costa molto di più, come ricerca e sviluppo...
Io sinceramente penso che sia il prezzo, sia il punteggio siano verosimili, dato il periodo in cui uscirà (maggio inoltrato, cioè 7 mesi dopo rispetto G80)
http://www.fudzilla.com/index.php?option=com_content&task=view&id=455&Itemid=1
Stone me I am DX10 late
We managed to get a screenshot from a yet to be shown R600 demo. Punters who are invited to the R600 launch event in Tunisia in two weeks time will get to see this first hand.
The general public won’t see this for a while yet. Shader effects on the stones looks nice and the trees and leaves look realistic as well. It is a good looking demo and the wooden house looks very nice.
That is how ATI plans to introduce R600 and the power of DirectX 10 gaming. Just look at the picture it's all there.
davide155
09-04-2007, 13:53
http://www.fudzilla.com/index.php?option=com_content&task=view&id=455&Itemid=1
Stone me I am DX10 late
We managed to get a screenshot from a yet to be shown R600 demo. Punters who are invited to the R600 launch event in Tunisia in two weeks time will get to see this first hand.
The general public won’t see this for a while yet. Shader effects on the stones looks nice and the trees and leaves look realistic as well. It is a good looking demo and the wooden house looks very nice.
That is how ATI plans to introduce R600 and the power of DirectX 10 gaming. Just look at the picture it's all there.
Non male.
Non tanto la roccia quanto lo sfondo. Davvero bello.
A quanto ho capito è uno screen della tech demo ati. Quella che verrà assieme a ruby.
Assomiglia molto a call of juarez. Sembra presa dal gioco :)
Eccolo qui:
http://www.fudzilla.com/images/stories/2007/April/graphics/r600_render.jpg
Non male.
Non tanto la roccia quanto lo sfondo. Davvero bello.
A quanto ho capito è uno screen della tech demo ati. Quella che verrà assieme a ruby.
Assomiglia molto a call of juarez. Sembra presa dal gioco :)
Eccolo qui:
http://www.fudzilla.com/images/stories/2007/April/graphics/r600_render.jpg
Lo sfondo e' certamente una foto texturizzata su alcuni poligoni a mo' di HDR tech demo come appunto e' (ammesso che esista) questa demo. La cosa impressionante dovrebbe essere appunto l'effetto realistico dovuto all'illuminazione e shadowing della roccia ed effettivamente e' davvero ottima.
Non vedo alcun post simile per cui metto questo link:
AMD Press Conference: Q & A Session
http://www.gearlive.com/news/article/159-amd-press-qa
versione video.
Following the press conference where AMD formally introduced us to the 690 chipset, was a fairly lengthy Q&A session, which we captured in it’s entirety. Check out the video for the full, unedited version - or check out our summarized notes after the jump.
Someone asked about wattage per teraflop. In the demo we saw, about 200 watts per chip. They are working to develop a standard for wattage per teraflop. Talking about power consumption, going forward they can focus on power-down throughout the platform as opposed to just on the chip or cores themselves.
Question about doing things about what AMD and ATI can do now that they couldn’t do as separate companies. Why the merger?
The 690 was architected in a combined environment. With a tighter cooperation with the R&D teams, you find a level of integration between the chips now. Power management is going to be better, partitioning across the HT bus. In late 2007, you will start seeing exactly what is being talked about. Fantastic batter life in a notebook for example, and in 2009, Fusion. That is what it’s all about, getting everything on the same piece of silicon.
Benchmark of R600, looks to be 260 watts. Can anything be done to bring that down as time goes on? That is fairly high consumption.
With the next version of the R600-based cards, you will see power go down, while performance goes up. Another result of the two companies coming together. Gamers want performance at any cost, and AMD is focused on optimizing dissipation of that thermal energy. 30db noise level coming on multiple CPU and GPU in the near future.
When is the R600 going to hit retail, and what happened?
Moving to 65 nm chips, scheduling was just a bit off. Rather than going with a limited deployment with a single point launch, they chose to delay by a couple of weeks to have a full line launch. It isn’t a silicon problem, it was an internal decision made to allow for a full launch. They will still be available in the first half of 2007.
When will Barcelona systems be available?
Second half of 2007.
Teraflop computing - when is it going to be a reality and not just a demo?
The demo was R600-based. Once the product launches, you will get to see and hear more about that. Second half of this year - XP box, R600 card, Opterons - that will result in teraflop computing. Absolutely this year.
In regards to OLPC, what is the strategy there?
There is something tragic in thinking we are going to teach kids in an emerging country how to use PowerPoint. The goal isn’t to teach kids in Uganda how to use Office 2007, despite how great it is. Take the OLPC and use it for an hour and think about what the implications are. Different strategies lead to different results. OLPCs philosophy is to help kids have access to the world, not to teach them how to use computers. The last time you had a chance for a kid to teach you something, how special was that? It’s okay if the children have these computers and get to teach their teachers something. The approach of the competition doesn’t empower children as much as it empowers teachers. It doesn’t hurt, it’s just a different route. AMD isn’t trying to market to that environment, they are trying to change it. That is evidenced by OLPC being a non-profit organization.
The screen on the OLPC is amazing. Better than any of the screens any of us sitting here has. Can be read in direct, full sunlight. Will last 30 times as long. Very scratch resistant, and consumes less than 2 watts.
;)
Non vedo alcun post simile per cui metto questo link:
AMD Press Conference: Q & A Session
http://www.gearlive.com/news/article/159-amd-press-qa
Benchmark of R600, looks to be 260 watts. Can anything be done to bring that down as time goes on? That is fairly high consumption.
With the next version of the R600-based cards, you will see power go down, while performance goes up. Another result of the two companies coming together. Gamers want performance at any cost, and AMD is focused on optimizing dissipation of that thermal energy. 30db noise level coming on multiple CPU and GPU in the near future.
When is the R600 going to hit retail, and what happened?
Moving to 65 nm chips, scheduling was just a bit off. Rather than going with a limited deployment with a single point launch, they chose to delay by a couple of weeks to have a full line launch. It isn’t a silicon problem, it was an internal decision made to allow for a full launch. They will still be available in the first half of 2007.
;)
questa mi sembra la parte più interessante...praticamente viene confermato che R600 sarà a 80nm (con consumo elevato) e che è prevista una seconda versione a 65nm (con consumi e prestazioni migliori) e che il ritardo è giustificato dal voler lanciare l'intera gamma di prodotti e non solo le schede top
Kharonte85
10-04-2007, 08:38
:eek: 260w ma sono fuori di melone? :muro:
Non stavano scherzando...:mc:
Sicuramente staranno parlando della versione OEM quella normale consumera' solo 240w :) ari:muro:
Mi sa che si ripetera' la storia x1800 ---> x1900
:eek: 260w ma sono fuori di melone? :muro:
Non stavano scherzando...:mc:
Sicuramente staranno parlando della versione OEM quella normale consumera' solo 240w :) ari:muro:
Mi sa che si ripetera' la storia x1800 ---> x1900
quella è la domanda dell'intervistatore e cmq parla di scheda probabilmente in oc (benchmark) non ho idea di quanto possa aumentare il consumo di una scheda sotto oc pesante...ma è ipotizzabile un consumo a default di "soli" 220/240w
Kharonte85
10-04-2007, 08:49
quella è la domanda dell'intervistatore e cmq parla di scheda probabilmente in oc (benchmark) non ho idea di quanto possa aumentare il consumo di una scheda sotto oc pesante...ma è ipotizzabile un consumo a default di "soli" 220/240w
Ho detto cosi' perche' mi ricordo che si diceva (forse erano tabelle) che la versione OEM consumasse 260w mentre la retail 240w...e questi dati non mi sembra siano stati ancora smentiti, se il passaggio a 65nm avverra' solo fra un po' c'è poco da fare sotto il lato consumi...
Con tali consumi se non andra' davvero molto meglio della 8800gtx sara' una ecatombe, anche perche' nel frattempo Nvidia non dorme e lancia la sua contromossa (8800ultra in arrivo a Maggio)
Davvero una situazione strana questa... onestamente AMD ha posto la situazione in modo tale che l'unico vero motivo nell'acquisto di questa scheda rispetto alle attuali concorrenti dovra' per forza di cose o essere una rivoluzione nel senso che il "semplice" passaggio ad una architettura unificata Dx10 based non sia la sola bensi' dovra' per forza di cose esserci qualcosa (che siano le prestazioni o altro) tale da ripagare il periodo "trascorso" e l'insoddisfazione di chi la aspettava da tempo.
Certo, processo produttivo e le richieste hardware sono tali da lasciare un po' di dubbi. Credo che il discorso "X1800 - X1900" cosi' come altri casi gia' visti anche in casa Nvidia, siano ormai di moda e sintono di una carenza progettuale dovuta magari un po' alle eccessive richieste di R&D sulle fonderie, alle loro limitazioni, alla veloce evoluzione in termini di numero di transistor, all'eccessiva "spremitura" di processi produttivi inadatti ecc ecc..
Le versioni high end ad ogni nuova generazione sono diventate un po' lo specchietto per le allodole che serve a vendere la soluzione "stabilizzata" in arrivo 6-8 mesi dopo.
Queste cose si sono viste sul mondo processori quando a fronte di un veloce e continuo incremento nelle frequenze rispetto alla riduzione dei processi produttivi erano quasi piu' i produttori di dissipatori a farsi soldi con soluzioni diventate "ridicole" che gli stessi produttori di processori. E ora si rivede la stessa cosa con i produttori di alimentatori che si stanno facendo grasse risate nel vedere il loro fatturato in via di enorme sviluppo.
i consumi se confermati sono più o meno quelli che si dicevano fin dalle primi rumors di quest'anno,allora non erano frottole..
Queste cose si sono viste sul mondo processori quando a fronte di un veloce e continuo incremento nelle frequenze rispetto alla riduzione dei processi produttivi erano quasi piu' i produttori di dissipatori a farsi soldi con soluzioni diventate "ridicole" che gli stessi produttori di processori. E ora si rivede la stessa cosa con i produttori di alimentatori che si stanno facendo grasse risate nel vedere il loro fatturato in via di enorme sviluppo.
non sò se tu hai notato,ma anche i stessi produttori di schede video vedi bfg,asus,pov producono una loro linea di alimentatori,quindi mi pare che il mercato orami va verso questa direzione..
240w tutto il sistema immagino...
240w tutto il sistema immagino...
non penso proprio ;)
240w tutto il sistema immagino...
purtroppo nò ....
Kharonte85
10-04-2007, 10:00
240w tutto il sistema immagino...
:asd: ma certo...:sofico:
Eppure i processori lo hanno capito che i consumi vanno ridotti (vedi INTEL)...alla fine cio' che si risparmiera' coi processori verra' colmato e superato dalle richieste delle schede video e saremo punto e a capo.
:asd: ma certo...:sofico:
Eppure i processori lo hanno capito che i consumi vanno ridotti (vedi INTEL)...alla fine cio' che si risparmiera' coi processori verra' colmato e superato dalle richieste delle schede video e saremo punto e a capo.
si ma per i processori non si sono mai toccati consumi simili,240w e + watt so veramente troppi:(
240w tutto il sistema immagino...
240w saranno divisi praticamente solo dalla GPU e dalla ram.. altro che sistema..;)
x Zorco
vero per il discorso alimentatori. Infatti cio' conferma la tesi che quella degli ali e' una scomessa che molte aziende abbracceranno, con l'avvento delle nuove esose GPU e delle nuove CPU.
Il discorso CPU e' cosi' fatto.. si e' ridimensionato con l'ottimo investimento fatto da Intel sul risparmio energetico dei nuovi processori, ma alla fine dei conti non durera' molto purtroppo non appena la gara si fara' piu' pressante e AMD ritornera' agli splendori degli anni passati.
purtroppo nò ....
[OT]Qual'è il limite d'alimentazione del PCI-EX? oltre che soglia d'alimentazione c'è bisogno di un connettore aggiuntivo direttamente sulla VGA?[OT]
appleroof
10-04-2007, 11:09
[OT]Qual'è il limite d'alimentazione del PCI-EX? oltre che soglia d'alimentazione c'è bisogno di un connettore aggiuntivo direttamente sulla VGA?[OT]
70 watt, mi pare
Kharonte85
10-04-2007, 11:10
[OT]Qual'è il limite d'alimentazione del PCI-EX? oltre che soglia d'alimentazione c'è bisogno di un connettore aggiuntivo direttamente sulla VGA?[OT]
Mi sembra fino a circa 75W...sulla r-600 ce ne saranno 2 di connettori aggiuntivi...;)
[OT]Qual'è il limite d'alimentazione del PCI-EX? oltre che soglia d'alimentazione c'è bisogno di un connettore aggiuntivo direttamente sulla VGA?[OT]
lo slot pci-e è in grado di fornire 75w...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.