PDA

View Full Version : Aspettando R600 [Thread ufficiale]


Pagine : 1 [2] 3 4 5 6 7 8 9 10

Skullcrusher
13-11-2006, 11:01
speranza condivisa :D

Come tutti credo :D

30cm di scheda sarebbe improponibile...già i 27 di G80 danno problemi a molti, figuriamoci 30cm... :sofico:

pandyno
13-11-2006, 11:40
Onestamente come gia' detto altre volte non credo che quest'ultima sia da vedere come possibilita' reale. Potrebbe essere che Intel voglia potenziarsi su questo punto di vista ma da li a poter valutare una acquisizione simile mi sembra davvero difficile. Poi ovvio che nulla e' impossibile e la suddetta fusione ne e' la prova.
Onestamente comunque mi auguro davvero che questo non accada. Le fusioni rischiano di stravolgere il mercato di una delle due aziende cosi' come i marchi cosi' come i prodotti offerti.


Alla fine dei conti non cambierà nulla; ATI è un marchio troppo consolidato e rimarrà ATI, i prodotti continueranno a chiamarsi Radeon.

Per quanto riguarda le voci, posso garantiti che non sono effettivamente voci, ma che nelle settimane scorse si era quasi arrivati alla conclusione. Evidentemente ci sono problemi di accordi di che tipo non so dire bene.

Da un punto di vista tecnologico queste "fusioni" sono un' ottima cosa: tecnologia migliore, costi più bassi.

Dall' altra parte non è un bene per le piccole, come S3, Matrox e PowerVR che si allontanano ogni giorno che passa dalla ribalta.

DjLode
13-11-2006, 11:55
Onestamente come gia' detto altre volte non credo che quest'ultima sia da vedere come possibilita' reale. Potrebbe essere che Intel voglia potenziarsi su questo punto di vista ma da li a poter valutare una acquisizione simile mi sembra davvero difficile. Poi ovvio che nulla e' impossibile e la suddetta fusione ne e' la prova.
Onestamente comunque mi auguro davvero che questo non accada. Le fusioni rischiano di stravolgere il mercato di una delle due aziende cosi' come i marchi cosi' come i prodotti offerti.

Intel per quanto mi riguarda fa chip video sufficienti per un sistema integrato. Però l'acquisizione di Ati da parte di Amd permetterebbe alla seconda di integrare chip video più evoluti e già sviluppati. Intel da questo punto di vista le gpu deve pure svilupparsele. Acquisire (o prendere accordi) con Nvidia le permetterebbe di contenere questo tipo di spese e fornire probabilmente chipset integrati più competitivi.
Si potrebbero quindi fornire piattaforme più performanti e più economiche, tanto le gpu integrate sia da Ati che da Nvidia sono dirette parentele con quelle sviluppate per schede "stand alone".

Superpelo
13-11-2006, 11:57
io mi aspetto che R600 sia più veloce del G80 anche x che esce 3 mesi dopo... e 3 mesi in capo informatico sono diventati anni al giorno d^oggi....

come hardware nonostante si sà pochissimo mi aspetto che sia un passo avanti come queste serie 1800-1900 sono state in grado di fare x che visivamente parlando Ati è stata un passo avanti in questo ultimo periodo....

speriamo che riescano ad accontentarmi pure stavolta....intanto prendo il G80.... poi ne riparliamo :D

lo spero, anche perchè odio i fanboyismi, io sono fanboy della concorrenza, come dovrebbero essere tutti

Dylan BJ
13-11-2006, 12:26
Comunque non e' sempre detto che un'azienda voglia farsi comprare, ammesso che quel che dici possa essere fattibile o meno. ATI non mi sembrava economicamente per niente in una situazione disastrosa al punto di rendere possibile una acquisizione totale o parziale come quella avvenuta con 3DFx.
Credo che l'accordo di ATI e AMD per una fusione (leggi acquisizione) sia stato prima straponderato dopo chissa' quante innumerevoli offerte perche' non era certo che l'affare sarebbe per forza andato in porto. ;)
certo... infatti chissa' quanto tempo prima dei rumors in rete era gia' stato deciso tutto a tavolino, dopo mesi di incontri tra i legali delle rispettive aziende.... :)

Simon82
13-11-2006, 12:30
Intel per quanto mi riguarda fa chip video sufficienti per un sistema integrato. Però l'acquisizione di Ati da parte di Amd permetterebbe alla seconda di integrare chip video più evoluti e già sviluppati. Intel da questo punto di vista le gpu deve pure svilupparsele. Acquisire (o prendere accordi) con Nvidia le permetterebbe di contenere questo tipo di spese e fornire probabilmente chipset integrati più competitivi.
Si potrebbero quindi fornire piattaforme più performanti e più economiche, tanto le gpu integrate sia da Ati che da Nvidia sono dirette parentele con quelle sviluppate per schede "stand alone".
Non credo che sia volonta' di Intel integrare cpu di complessita' pari a quelle stand alone che le due suddette propongono nel mercato. Inanzitutto perche' sarebbero inutili risorse sprecate per l'uso che hanno.
Poi magari domani vengo smentito, sia chiaro, ma acquisizione da biliardi di dollari si fanno con piani strategici pianificati chissa da quanto, non per ripicca al nuovo giocattolo del concorrente. ;)

The_max_80
13-11-2006, 12:41
Ragazzi ma qui non fanno capire che r600 sara pronto per fine gennaio??

http://www.tomshw.it/news.php?newsid=8309

Foglia Morta
13-11-2006, 13:06
Ragazzi ma qui non fanno capire che r600 sara pronto per fine gennaio??

http://www.tomshw.it/news.php?newsid=8309
l'intenzione è quella di presentarla in prossimità di Vista... poi però a certi piace fare del catastrofismo e si scatena la fantasia. Se arriverà a Gennaio sarà puntuale , oltre sarà in ritardo.

The_max_80
13-11-2006, 13:08
l'intenzione è quella di presentarla in prossimità di Vista... poi però a certi piace fare del catastrofismo e si scatena la fantasia. Se arriverà a Gennaio sarà puntuale , oltre sarà in ritardo.


secondo i nvidiani usciva a marzo, allora aspetto!!! :D

Foglia Morta
13-11-2006, 13:10
secondo i nvidiani usciva a marzo, allora aspetto!!! :D
è che si diceva primo trimestre... per cui automaticamente alcuni pensano alla fine , figurati se pensano all'inizio :D

DjLode
13-11-2006, 14:22
Non credo che sia volonta' di Intel integrare cpu di complessita' pari a quelle stand alone che le due suddette propongono nel mercato. Inanzitutto perche' sarebbero inutili risorse sprecate per l'uso che hanno.
Poi magari domani vengo smentito, sia chiaro, ma acquisizione da biliardi di dollari si fanno con piani strategici pianificati chissa da quanto, non per ripicca al nuovo giocattolo del concorrente. ;)

Non parlavo di ripicca. Ma i piani di Amd con Torrenza sono noti da tempo. Intel se non ricordo male se ne era uscita con una Roadmap dove si parlava di gpu integrate nelle cpu. Insomma il mercato spinge verso l'integrazione (e vorrei ben vedere). Io sono scettico, su Gpu integrate nelle Cpu e non ho ancora cambiato idea. Ma solo il mercato darà l'esito e sicuramente da parte di Intel deve esserci un piano per contrastare il mercato della concorrente, non per ripicca ma di certo per non lasciarle spazio.

Simon82
13-11-2006, 14:30
Non parlavo di ripicca. Ma i piani di Amd con Torrenza sono noti da tempo. Intel se non ricordo male se ne era uscita con una Roadmap dove si parlava di gpu integrate nelle cpu. Insomma il mercato spinge verso l'integrazione (e vorrei ben vedere). Io sono scettico, su Gpu integrate nelle Cpu e non ho ancora cambiato idea. Ma solo il mercato darà l'esito e sicuramente da parte di Intel deve esserci un piano per contrastare il mercato della concorrente, non per ripicca ma di certo per non lasciarle spazio.
A tal riguardo http://www.hwupgrade.it/forum/showthread.php?t=1330014

Certo questa e' l'idea che mi sono fatto anche io. E' probabile che ci sia una certa integrazione ma non vedo come questo sia possibile almeno finche' non ci sara' un qualche stravolgimento tale da innovare seriamente l'implementazione fisica dei chip e quindi la costruzione dei wafer al punto da integrare un numero di transistor davvero esagerato rispetto all'attuale trend di mercato.
E' anche probabile che con le Dx10 la tanta decantata complessita' delle GPU possa "semplificarsi" cosi' come vediamo con gli Stream Processor al punto da far diventare le GPU vere e proprie CPU e come tali essere trattate come vengono attualmente gestite le soluzioni dual/quad core. ;)

DjLode
13-11-2006, 14:46
A tal riguardo http://www.hwupgrade.it/forum/showthread.php?t=1330014

Certo questa e' l'idea che mi sono fatto anche io. E' probabile che ci sia una certa integrazione ma non vedo come questo sia possibile almeno finche' non ci sara' un qualche stravolgimento tale da innovare seriamente l'implementazione fisica dei chip e quindi la costruzione dei wafer al punto da integrare un numero di transistor davvero esagerato rispetto all'attuale trend di mercato.
E' anche probabile che con le Dx10 la tanta decantata complessita' delle GPU possa "semplificarsi" cosi' come vediamo con gli Stream Processor al punto da far diventare le GPU vere e proprie CPU e come tali essere trattate come vengono attualmente gestite le soluzioni dual/quad core. ;)

Avevo visto il tuo post mi era parso interessante ma non avevo capacità intellettive sufficienti quel giorno per replicare. Ti prometto di tornarci su :)
Il primo motivo del mio scetticismo era infatti l'integrazione di una gpu di una certa complessità dentro ad una cpu con processi produttivi attuali. O salta fuori una cpu enorme, oppure si integra una gpu di modeste proporzioni.
Francamente non so cosa aspettarmi, di certo dopo l'uscita di G80 mi risulta difficile integrare una gpu del genere (anche da qualche tempo quando saranno usciti i successori) dentro un chip con anche una cpu...

Kharonte85
13-11-2006, 14:51
è che si diceva primo trimestre... per cui automaticamente alcuni pensano alla fine , figurati se pensano all'inizio :D
Fino ad ora i rumors parlavano di marzo... ;)
secondo i nvidiani usciva a marzo, allora aspetto!!! :D
:rolleyes:

Qualche giorno fa:
Pronto il silicio della R600 di ATI

da The Inquirer Team: Mercoledì 8 Novembre 2006, 11:40

NON VI SCALDATE troppo per questa notizia, ma ATI ha già prodotto qualche esemplare del chip R600. Comunque la sua uscita resta pianificata per il primo trimestre del 2007. ATI è circa cinque mesi indietro rispetto ai suoi piani originari.

Il primo processore R600 è clockato a un valore più basso di quello che avrà nella scheda che sarà prodotta alla fine ed è venuto alla luce solo per poterci sperimentare un po' sopra e dare un idea delle prestazioni che avrà alla fine. Aiuterà anche gli sviluppatori di giochi a preparare i nuovi titoli tenendo conto della sua microarchitettura.

Nvidia invece aveva già pronta una versione preliminare dello G80 a settembre da distribuire a persone molto selezionate.

Attualmente ATI/AMD può solo piangere il fatto di non avere alcun prodotto da contrapporre alla rivale, e sarà così almeno per i prossimi tre mesi.

Articolo originale di: Fuad Abazovic


10/11/2006
ATI ha prodotto i primi esemplari di schede grafiche con VPU R600 compatibili con le DirectX 10. I primi esemplari sono già stati inviati agli sviluppatori di videogiochi ed ai partner per i primi test preliminari.


Queste schede hanno una frequenza ridotta rispetto agli esemplari che saranno commercializzati, ed al momento nessuna informazione trapela sulle performance. Le prime schede con VPU R600 di AMD/ATI saranno disponibili nel primo trimestre 2007, probabilmente a marzo, giusto in tempo per l'uscita delle DirectX 10, previste per aprile 2007.

Fonte: 3D Italia

Simon82
13-11-2006, 15:04
Avevo visto il tuo post mi era parso interessante ma non avevo capacità intellettive sufficienti quel giorno per replicare. Ti prometto di tornarci su :)
Il primo motivo del mio scetticismo era infatti l'integrazione di una gpu di una certa complessità dentro ad una cpu con processi produttivi attuali. O salta fuori una cpu enorme, oppure si integra una gpu di modeste proporzioni.
Francamente non so cosa aspettarmi, di certo dopo l'uscita di G80 mi risulta difficile integrare una gpu del genere (anche da qualche tempo quando saranno usciti i successori) dentro un chip con anche una cpu...
Credo che il mercato abbia ormai capito che il futuro delle GPU sia quello che vede l'architettura interna diventare molto simile alle CPU come dicevo sopra.
Si abbraccia la filosofia dell'astrazione e in questo modo e' comprensibile vedere le societa' piu' grandi costruttrici di processori fondersi e/o avvicinarsi come mai in passato e' stato.
Come il big bang prima esplosione e poi implosione.. :p

Foglia Morta
13-11-2006, 15:25
Fino ad ora i rumors parlavano di marzo... ;)
Quindi se tom's parla di Gennaio non è un rumour , se 3d italia parla di Marzo è un rumour :confused: , l'importante è che sia contento tu. Tra l'altro anche 3d italia dice in tempo per Vista , fa un po troppa confusione , theinquirer tempo fa parlava di Gennaio/Febbraio.

Foglia Morta
13-11-2006, 15:27
Credo che il mercato abbia ormai capito che il futuro delle GPU sia quello che vede l'architettura interna diventare molto simile alle CPU come dicevo sopra.
Si abbraccia la filosofia dell'astrazione e in questo modo e' comprensibile vedere che le societa' piu' grandi costruttrici di processori fondersi e/o avvicinarsi come mai in passato e' stato.
Come il big bang prima esplosione e poi implosione.. :p
Si , a tutti i livelli stando a quel che dice AMD...
“With the anticipated launch of Windows Vista, robust 3D graphics, digital media and device convergence are driving the need for greater performance, graphics capabilities, and battery life,” said Phil Hester, AMD senior vice president and chief technology officer. “In this increasingly diverse x86 computing environment, simply adding more CPU cores to a baseline architecture will not be enough. As x86 scales from palmtops to petaFLOPS, modular processor designs leveraging both CPU and GPU compute capabilities will be essential in meeting the requirements of computing in 2008 and beyond.”

Fusion processors are expected in late 2008/early 2009, and the company expects to use them within all of the company’s priority computing categories, including laptops, desktops, workstations and servers, as well as in consumer electronics and solutions tailored for the unique needs of emerging markets.
http://www.amd.com/us-en/Corporate/VirtualPressRoom/0,,51_104_543~113741,00.html

Kharonte85
13-11-2006, 15:30
Quindi se tom's parla di Gennaio non è un rumour , se 3d italia parla di Marzo è un rumour :confused: , l'importante è che sia contento tu. Tra l'altro anche 3d italia dice in tempo per Vista , fa un po troppa confusione , theinquirer tempo fa parlava di Gennaio/Febbraio.
No no...ti facevo solo presente che la data piu' probabile attribuita era marzo quindi inutile lamentarsi e dire che pensavamo automaticamente a fine primo trimestre... ;)

Ora vedremo nei prossimi giorni...

Se esce prima, meglio sara' per tutti noi... :)

Foglia Morta
13-11-2006, 15:38
No no...ti facevo solo presente che la data piu' probabile attribuita era marzo quindi inutile lamentarsi e dire che pensavamo automaticamente a fine primo trimestre... ;)

Ora vedremo nei prossimi giorni...

Se esce prima, meglio sara' per tutti noi... :)
ah... però citi theinquirer, bho posso essermi perso qualche suo articolo ma a Settembre ha detto chiaramente Gennaio/Febbraio , non conosco 3d italia come sito e non giudico.

ale0bello0pr
13-11-2006, 17:24
non dimentichiamoci che ati è impegnata da qualke setimana a questa parte a produrre anche processori... spero solo ke non ritardi veramente troppo le uscite x quanto riguarda il campo video xkè sennò mi sa che passo a 8800 GTX sli ankio :sofico:

DjLode
13-11-2006, 17:25
non dimentichiamoci che ati è impegnata da qualke setimana a questa parte a produrre anche processori...

Ma anche no :)

Simon82
14-11-2006, 08:18
non dimentichiamoci che ati è impegnata da qualke setimana a questa parte a produrre anche processori... spero solo ke non ritardi veramente troppo le uscite x quanto riguarda il campo video xkè sennò mi sa che passo a 8800 GTX sli ankio :sofico:
:confused:
Un po' di confusione? :p

ale0bello0pr
14-11-2006, 08:43
:confused:
Un po' di confusione? :p

mi riferivo ad amd... ati nn esiste.. piu... :Prrr:
incominciamo ad abituarci a chiamarla così...lo so sarà dura... :asd:

fede27
14-11-2006, 09:31
mi riferivo ad amd... ati nn esiste.. piu... :Prrr:
incominciamo ad abituarci a chiamarla così...lo so sarà dura... :asd:

ma che c'entra...non è che per questo ati sta facendo processori! :doh:

anche se scompare il brand la struttura della società resta quella, non l'hanno mica rifondata!! sarebbe come se la ferrari dopo aver preso maserati l'avesse messa a fare moto..stai facendo abbastanza confusione :p

Simon82
14-11-2006, 09:31
mi riferivo ad amd... ati nn esiste.. piu... :Prrr:
incominciamo ad abituarci a chiamarla così...lo so sarà dura... :asd:
Sara' una lenta e graduale realta' quella di abbandonare il marchio ATI per rimpiazzarlo nella mente di tutti con AMD. Pero' attualmente ancora ATI rimane come "brand di una divisione" di AMD: ;)

Window Vista
14-11-2006, 17:46
Now the 360’s GPU is one impressive piece of work and I’ll say from the get go it’s much more advanced than the PS3’s GPU so I’m not sure where to begin, but I’ll start with what Microsoft said about it. Microsoft said Xenos was clocked at 500MHZ and that it had 48-way parallel floating-point dynamically-scheduled shader pipelines (48 unified shader units or pipelines) along with a polygon performance of 500 Million triangles a second.

Before going any further I’ll clarify this 500 Million Triangles a second claim. Can the 360’s GPU actually achieve this? Yes it can, BUT there would be no pixels or color at all. It’s the triangle setup rate for the GPU and it isn’t surprising it has such a higher triangle setup rate due to it having 48 shaders units capable of performing vertex operations whereas all other released GPUs can only dedicate 8 shader units to vertex operations. The PS3 GPU’s triangle setup rate at 550MHZ is 275 million a second and if its 500MHZ will have 250 million a second. This is just the setup rate do NOT expect to see games with such an excessive number of polygons because it wont happen.

Microsoft also says it can also achieve a pixel-fillrate of 16Gigasamples per second. This GPU here inside the Xbox 360 is literally an early ATI R600, which when released by ATI for the pc will be a Directx 10 GPU. Xenos in a lot of areas manages to meet many of the requirements that would qualify it as a Directx 10 GPU, but falls short of the requirements in others. What I found interesting was Microsoft said the 360’s GPU could perform 48 billion shader operations per second back in 2005. However Bob Feldstein, VP of engineering for ATI, made it very clear that the 360’s GPU can perform 2 of those shaders per cycle so the 360’s GPU is actually capable of 96 billion shader operations per second.

To quote ATI on the 360’s GPU they say.

"On chip, the shaders are organized in three SIMD engines with 16 processors per unit, for a total of 48 shaders. Each of these shaders is comprised of four ALUs that can execute a single operation per cycle, so that each shader unit can execute four floating-point ops per cycle."
48 shader units * 4 ops per cycle = 192 shader ops per clock
Xenos is clocked at 500MHZ *192 shader ops per clock = 96 billion shader ops per second.
(Did anyone notice that each shader unit on the 360’s GPU doesn’t perform as many ops per pipe as the rsx? The 360 GPU makes up for it by having superior architecture, having many more pipes which operate more efficiently and along with more bandwidth.)

Did Microsoft just make a mistake or did they purposely misrepresent their GPU to lead Sony on? The 360’s GPU is revolutionary in the sense that it’s the first GPU to use a Unified Shader architecture. According to developers this is as big a change as when the vertex shader was first introduced and even then the inclusion of the vertex shader was merely an add-on not a major change like this. The 360’s GPU also has a daughter die right there on the chip containing 10MB of EDRAM. This EDRAM has a framebuffer bandwidth of 256GB/s which is more than 5 times what the RSX or any GPU for the pc has for its framebuffer (even higher than G80’s framebuffer).

Thanks to the efficiency of the 360 GPU’s unified shader architecture and this 10MB of EDRAM the GPU is able to achieve 4XFSAA at no performance cost. ATI and Microsoft’s goal was to eliminate memory bandwidth as a bottleneck and they seem to have succeeded. If there are any pc gamers out there they notice that when they turn on things such as AA or HDR the performance goes down that’s because those features eat bandwidth hence the efficiency of the GPU’s operation decreases as they are turned on. With the 360 HDR+4XAA simultaneously are like nothing to the GPU with proper use of the EDRAM. The EDRAM contains a 3D logic unit which has 192 Floating Point Unit processors inside. The logic unit will be able to exchange data with the 10MB of RAM at 2 Terabits a second. Things such as antialiasing, computing z depths or occlusion culling can happen on the EDRAM without impacting the GPU’s workload.

Xenos writes to this EDRAM for its framebuffer and it’s connected to it via a 32GB/sec connection (this number is extremely close to the theoretical because the EDRAM is right there on the 360 GPU’s daughter die.) Don’t forget the EDRAM has a bandwidth of 256GB/s and its only by dividing this 256GB/s by the initial 32GB/s that we get from the connection of Xenos to the EDRAM we find out that Xenos is capable of multiplying its effective bandwidth to the frame buffer by a factor of 8 when processing pixels that make use of the EDRAM, which includes HDR or AA and other things. This leads to a maximum of 32*8=256GB/s which, to say the least, is a very effective way of dealing with bandwidth intensive tasks.

In order for this to be possible developers would need to setup their rendering engine to take advantage of both the EDRAM and the available onboard 3D logic. If anyone is confused why the 32GB/s is being multiplied by 8 its because once data travels over the 32GB/s bus it is able to be processed 8 times by the EDRAM logic to the EDRAM memory at a rate of 256GB/s so for every 32GB/s you send over 256GB/s gets processed. This results in RSX being at a bandwidth disadvantage in comparison to Xenos. Needless to say the 360 not only has an overabundance of video memory bandwidth, but it also has amazing memory saving features. For example to get 720P with 4XFSAA on traditional architecture would require 28MB worth of memory. On the 360 only 16MB is required. There are also features in the 360's Direct3D API where developers are able to fit 2 128x128 textures into the same space required for one, for example. So even with all the memory and all the memory bandwidth, they are still very mindful of how it’s used.

I wasn’t too clear earlier on the difference between the RSX’s dedicated pixel and vertex shader pipelines compared to the 360s unified shader architecture. The 360 GPU has 48 unified pipelines capable of accepting either pixel or vertex shader operations whereas with the older dedicated pixel and vertex pipeline architecture that RSX uses when you are in a vertex heavy situation most of the 24 pixel pipes go idle instead of helping out with vertex work.

Or on the flip side in a pixel heavy situation those 8 vertex shader pipelines are just idle and don’t help out the pixel pipes (because they aren’t able to), but with the 360’s unified architecture in a vertex heavy situation for example none of the pipes go idle. All 48 unified pipelines are capable of helping with either pixel or vertex shader operations when needed so as a result efficiency is greatly improved and so is overall performance. When pipelines are forced to go idle because they lack the capability to help another set of pipelines accomplish their task it’s detrimental to performance. This inefficient manner is how all current GPUs operate including the PS3's RSX. The pipelines go idle because the pixel pipes aren't able to help the vertex pipes accomplish a task or vice versa. Whats even more impressive about this GPU is it by itself determines the balance of how many pipelines to dedicate to vertex or pixel shader operations at any given time a programmer is NOT needed to handle any of this the GPU takes care of all this itself in the quickest most efficient way possible. 1080p is not a smart resolution to target in any form this generation, but if 360 developers wanted to get serious about 1080p, thanks to Xenos, could actually outperform the ps3 in 1080p. (The less efficient GPU always shows its weaknesses against the competition in higher resolutions so the best way for the rsx to be competitive is to stick to 720P) In vertex shader limited situations the 360’s gpu will literally be 6 times faster than RSX. With a unified shader architecture things are much more efficient than previous architectures allowed (which is extremely important). The 360’s GPU for example is 95-99% efficient with 4XAA enabled. With traditional architecture there are design related roadblocks that prevent such efficiency. To avoid such roadblocks, which held back previous hardware, the 360 GPU design team created a complex system of hardware threading inside the chip itself. In this case, each thread is a program associated with the shader arrays. The Xbox 360 GPU can manage and maintain state information on 64 separate threads in hardware. There's a thread buffer inside the chip, and the GPU can switch between threads instantaneously in order to keep the shader arrays busy at all times.

Want to know why Xenos doesn’t need as much raw horsepower to outperform say something like the x1900xtx or the 7900GTX? It makes up for not having as much raw horsepower by actually being efficient enough to fully achieve its advertised performance numbers which is an impressive feat. The x1900xtx has a peak pixel fillrate of 10.4Gigasamples a second while the 7900GTX has a peak pixel fillrate of 15.6Gigasamples a second. Neither of them is actually able to achieve and sustain those peak fillrate performance numbers though due to not being efficient enough, but they get away with it in this case since they can also bank on all the raw power. The performance winner between the 7900GTX and the X1900XTX is actually the X1900XTX despite a lower pixel fillrate (especially in higher resolutions) because it has twice as many pixel pipes and is the more efficient of the 2. It’s just a testament as to how important efficiency is. Well how exactly can the mere 360 GPU stand up to both of those with only a 128 bit memory interface and 500MHZ? Well the 360 GPU with 4XFSAA enabled achieves AND sustains its peak fillrate of 16Gigasamples per second which is achieved by the combination of the unified shader architecture and the excessive amount of bandwidth which gives it the type of efficiency that allows it to outperform GPUs with far more raw horsepower. I guess it also helps that it’s the single most advanced GPU currently available anyway for purchase. Things get even better when you factor in the Xenos’ MEMEXPORT ability which allows it to enable “streamout” which opens the door for Xenos to achieve DX10 class functionality. A shame Microsoft chose to disable Xenos’ other 16 pipelines to improve yields and keep costs down. Not many are even aware that the 360’s GPU has the exact same number of pipelines as ATI’s unreleased R600, but to keep costs down and to make the GPU easier to manufacture, Microsoft chose to disable one of the shader arrays containing 16 pipelines. What MEMEXPORT does is it expands the graphics pipeline in more general purpose and programmable manner.
I’ll borrow a quote from Dave Baumann since he explains it rather well.

“With the capability to fetch from anywhere in memory, perform arbitrary ALU operations and write the results back to memory, in conjunction with the raw floating point performance of the large shader ALU array, the MEMEXPORT facility does have the capability to achieve a wide range of fairly complex and general purpose operations; basically any operation that can be mapped to a wide SIMD array can be fairly efficiently achieved and in comparison to previous graphics pipelines it is achieved in fewer cycles and with lower latencies. For instance, this is probably the first time that general purpose physics calculation would be achievable, with a reasonable degree of success, on a graphics processor and is a big step towards the graphics processor becoming much more like a vector co-processor to the CPU.”
Even with all of this information there is still a lot more about this GPU that ATI just simply isn't revealing and considering they'll be borrowing technology used to design this GPU in their future pc products can you really blame them?

http://dpad.gotfrag.com/portal/story/35372/?spage=9

LINK 1 pagina:http://dpad.gotfrag.com/portal/story/35372/?spage=1

Sulla scheda video RSX è talmente lento da essere ben 1 generazione indietro!!!

Praticamente dice la GPU X360 è + efficente di quella della PS3, per il fatto che ha una architettura unificata.
R500 oltre le 48 pipeline avrebbe dovuto avere anche 16 in +, ma la MS le ha blocccate per il costo che comportava, quindi è come un R600 castrato però sempre R600 parlando di rumor(R600).
Poi c'è la funzionalità Memexport che dovrebbe realizzare, aprire le funzionalità come in DX10.
Dice anche che nelle oparazioni vertex R500 è 6 volte + veloce di RSx.
Secondo l'articolo R500 ha moltissime aree manageriali in cui è DX10 completamente, mentre in altre no.
Grazie all'Edram e all'architettura unificata R500 può fare 4X FSAA senza alcun costo in termini di prestazioni.
Praticamente, esempio, se facciamo il 720p + 4x FSAA, in un'architettura normale occuperebbe 28 MB di memoria, invece con X360 solo 16mb, oltre che il bus dell' EDRAM è di 256GB/s, è + alto anche di quello di G80.
La gpu X360 è dal 95-99% di efficenza con 4x FSAA.
Praticamente RSX sarebbe competitivo solo per il 720p ma non per il 1080p, i sviluppatori ricercano sta risoluzione in X360 perchè Xenos ha l'architettura unificata e un'efficenza altissima alle alte risoluzioni.

appleroof
14-11-2006, 18:14
cut

http://dpad.gotfrag.com/portal/story/35372/?spage=9

LINK 1 pagina:http://dpad.gotfrag.com/portal/story/35372/?spage=1

Sulla scheda video RSX è talmente lento da essere ben 1 generazione indietro!!!

Praticamente dice la GPU X360 è + efficente di quella della PS3, per il fatto che ha una architettura unificata.
R500 oltre le 48 pipeline avrebbe dovuto avere anche 16 in +, ma la MS le ha blocccate per il costo che comportava, quindi è come un R600 castrato però sempre R600 parlando di rumor(R600).
Poi c'è la funzionalità Memexport che dovrebbe realizzare, aprire le funzionalità come in DX10.
Dice anche che nelle oparazioni vertex R500 è 6 volte + veloce di RSx.
Secondo l'articolo R500 ha moltissime aree manageriali in cui è DX10 completamente, mentre in altre no.
Grazie all'Edram e all'architettura unificata R500 può fare 4X FSAA senza alcun costo in termini di prestazioni.
Praticamente, esempio, se facciamo il 720p + 4x FSAA, in un'architettura normale occuperebbe 28 MB di memoria, invece con X360 solo 16mb, oltre che il bus dell' EDRAM è di 256GB/s, è + alto anche di quello di G80.
La gpu X360 è dal 95-99% di efficenza con 4x FSAA.
Praticamente RSX sarebbe competitivo solo per il 720p ma non per il 1080p, i sviluppatori ricercano sta risoluzione in X360 perchè Xenos ha l'architettura unificata e un'efficenza altissima alle alte risoluzioni.

finalmente trapela qualcosa di abbastanza concreto, anche se non so quanto credibile ancora...

LCol84
14-11-2006, 18:22
Se queste sono le premesse di r600, la pazienza di tutti coloro che non han messo mano al portafoglio per g80 verrà ripagata.

Sono proprio curioso di vedere la potenza bruta di questa gpu, nonchè l'efficienza che ha sempre contraddistinto i prodotti di ati (nulla togliendo a nvidia che ha sfornato un mega scheda video) ;)

Skullcrusher
14-11-2006, 18:31
Se queste sono le premesse di r600, la pazienza di tutti coloro che non han messo mano al portafoglio per g80 verrà ripagata.

Sono proprio curioso di vedere la potenza bruta di questa gpu, nonchè l'efficienza che ha sempre contraddistinto i prodotti di ati (nulla togliendo a nvidia che ha sfornato un mega scheda video) ;)

Le premesse per un'ottima vga ci sono....resta da vedere se sarà superiore oppure alla pari con G80....quando uscirà prevedo una bella battaglia :)

appleroof
14-11-2006, 18:32
Le premesse per un'ottima vga ci sono....resta da vedere se sarà superiore oppure alla pari con G80....quando uscirà prevedo una bella battaglia :)


quoto ;)

DarKilleR
14-11-2006, 19:37
la cosa che mi rende felice di questa discussione è che è una discussione seria e senza FLAME!!!!

Quanto meno da questa parte nessuno si è messo a dire ATI sempre MEGLIO, ATI SPAKKA, ATI >> ALL .... :sofico:


P.S. nella notizia di 3d italia c'è scritto che ATI è 5 mesi a dietro rispetto ai programmi iniziali...ma che dicono???

E' un anno che sappiamo tutti che R600 deve uscire nel primo trimestre del 2007, in concomitanza con Vista bene o male... :cool:

Skullcrusher
14-11-2006, 19:43
la cosa che mi rende felice di questa discussione è che è una discussione seria e senza FLAME!!!!

Quanto meno da questa parte nessuno si è messo a dire ATI sempre MEGLIO, ATI SPAKKA, ATI >> ALL .... :sofico:


P.S. nella notizia di 3d italia c'è scritto che ATI è 5 mesi a dietro rispetto ai programmi iniziali...ma che dicono???

E' un anno che sappiamo tutti che R600 deve uscire nel primo trimestre del 2007, in concomitanza con Vista bene o male... :cool:

Già, le discussioni in cui non c'è gente che vuole imporre qualcosa sono le migliori, appunto perchè si discute :D

Per febbraio/marzo dovrebbe uscire la bestiola, attendo con impazienza il confronto :sofico:

nico88desmo
14-11-2006, 19:57
Praticamente dice la GPU X360 è + efficente di quella della PS3, per il fatto che ha una architettura unificata.
R500 oltre le 48 pipeline avrebbe dovuto avere anche 16 in +, ma la MS le ha blocccate per il costo che comportava, quindi è come un R600 castrato però sempre R600 parlando di rumor(R600).
Poi c'è la funzionalità Memexport che dovrebbe realizzare, aprire le funzionalità come in DX10.
Dice anche che nelle oparazioni vertex R500 è 6 volte + veloce di RSx.
Secondo l'articolo R500 ha moltissime aree manageriali in cui è DX10 completamente, mentre in altre no.
Grazie all'Edram e all'architettura unificata R500 può fare 4X FSAA senza alcun costo in termini di prestazioni.
Praticamente, esempio, se facciamo il 720p + 4x FSAA, in un'architettura normale occuperebbe 28 MB di memoria, invece con X360 solo 16mb, oltre che il bus dell' EDRAM è di 256GB/s, è + alto anche di quello di G80.
La gpu X360 è dal 95-99% di efficenza con 4x FSAA.
Praticamente RSX sarebbe competitivo solo per il 720p ma non per il 1080p, i sviluppatori ricercano sta risoluzione in X360 perchè Xenos ha l'architettura unificata e un'efficenza altissima alle alte risoluzioni.

scusate mah...se r600 dovrebbe avere 48+16=64 pipeline, in confronto al G80 non sono un pò pochi?
Ricordando che G80 ha 128 stream processor, che a differenza delle pipeline normali svolgono operazione sui pixel, vertex e in directx 10 anche sui geometri shader...a me le 64 pipeline sembrano un pò pochette...voi che dite?

belin
14-11-2006, 20:03
scusate mah...se r600 dovrebbe avere 48+16=64 pipeline, in confronto al G80 non sono un pò pochi?
Ricordando che G80 ha 128 stream processor, che a differenza delle pipeline normali svolgono operazione sui pixel, vertex e in directx 10 anche sui geometri shader...a me le 64 pipeline sembrano un pò pochette...voi che dite?
...infatti non è così, il post che hai quotato è "sbagliato" nella descrizione. R500 ha architettura a shader unificati. Il chip è caratterizzato dalla presenza di 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading. Ogni unit è in grado di eseguire due operazioni di shading per ciclo di clock: in totale la GPU è quindi in grado di eseguire 96 operazioni di shading per ciclo di clock.

...ciao! :)

Window Vista
14-11-2006, 20:11
Now the 360’s GPU is one impressive piece of work and I’ll say from the get go it’s much more advanced than the PS3’s GPU so I’m not sure where to begin, but I’ll start with what Microsoft said about it. Microsoft said Xenos was clocked at 500MHZ and that it had 48-way parallel floating-point dynamically-scheduled shader pipelines (48 unified shader units or pipelines) along with a polygon performance of 500 Million triangles a second.

Before going any further I’ll clarify this 500 Million Triangles a second claim. Can the 360’s GPU actually achieve this? Yes it can, BUT there would be no pixels or color at all. It’s the triangle setup rate for the GPU and it isn’t surprising it has such a higher triangle setup rate due to it having 48 shaders units capable of performing vertex operations whereas all other released GPUs can only dedicate 8 shader units to vertex operations. The PS3 GPU’s triangle setup rate at 550MHZ is 275 million a second and if its 500MHZ will have 250 million a second. This is just the setup rate do NOT expect to see games with such an excessive number of polygons because it wont happen.

Microsoft also says it can also achieve a pixel-fillrate of 16Gigasamples per second. This GPU here inside the Xbox 360 is literally an early ATI R600, which when released by ATI for the pc will be a Directx 10 GPU. Xenos in a lot of areas manages to meet many of the requirements that would qualify it as a Directx 10 GPU, but falls short of the requirements in others. What I found interesting was Microsoft said the 360’s GPU could perform 48 billion shader operations per second back in 2005. However Bob Feldstein, VP of engineering for ATI, made it very clear that the 360’s GPU can perform 2 of those shaders per cycle so the 360’s GPU is actually capable of 96 billion shader operations per second.

To quote ATI on the 360’s GPU they say.

"On chip, the shaders are organized in three SIMD engines with 16 processors per unit, for a total of 48 shaders. Each of these shaders is comprised of four ALUs that can execute a single operation per cycle, so that each shader unit can execute four floating-point ops per cycle."
48 shader units * 4 ops per cycle = 192 shader ops per clock
Xenos is clocked at 500MHZ *192 shader ops per clock = 96 billion shader ops per second.
(Did anyone notice that each shader unit on the 360’s GPU doesn’t perform as many ops per pipe as the rsx? The 360 GPU makes up for it by having superior architecture, having many more pipes which operate more efficiently and along with more bandwidth.)

Did Microsoft just make a mistake or did they purposely misrepresent their GPU to lead Sony on? The 360’s GPU is revolutionary in the sense that it’s the first GPU to use a Unified Shader architecture. According to developers this is as big a change as when the vertex shader was first introduced and even then the inclusion of the vertex shader was merely an add-on not a major change like this. The 360’s GPU also has a daughter die right there on the chip containing 10MB of EDRAM. This EDRAM has a framebuffer bandwidth of 256GB/s which is more than 5 times what the RSX or any GPU for the pc has for its framebuffer (even higher than G80’s framebuffer).

Thanks to the efficiency of the 360 GPU’s unified shader architecture and this 10MB of EDRAM the GPU is able to achieve 4XFSAA at no performance cost. ATI and Microsoft’s goal was to eliminate memory bandwidth as a bottleneck and they seem to have succeeded. If there are any pc gamers out there they notice that when they turn on things such as AA or HDR the performance goes down that’s because those features eat bandwidth hence the efficiency of the GPU’s operation decreases as they are turned on. With the 360 HDR+4XAA simultaneously are like nothing to the GPU with proper use of the EDRAM. The EDRAM contains a 3D logic unit which has 192 Floating Point Unit processors inside. The logic unit will be able to exchange data with the 10MB of RAM at 2 Terabits a second. Things such as antialiasing, computing z depths or occlusion culling can happen on the EDRAM without impacting the GPU’s workload.

Xenos writes to this EDRAM for its framebuffer and it’s connected to it via a 32GB/sec connection (this number is extremely close to the theoretical because the EDRAM is right there on the 360 GPU’s daughter die.) Don’t forget the EDRAM has a bandwidth of 256GB/s and its only by dividing this 256GB/s by the initial 32GB/s that we get from the connection of Xenos to the EDRAM we find out that Xenos is capable of multiplying its effective bandwidth to the frame buffer by a factor of 8 when processing pixels that make use of the EDRAM, which includes HDR or AA and other things. This leads to a maximum of 32*8=256GB/s which, to say the least, is a very effective way of dealing with bandwidth intensive tasks.

In order for this to be possible developers would need to setup their rendering engine to take advantage of both the EDRAM and the available onboard 3D logic. If anyone is confused why the 32GB/s is being multiplied by 8 its because once data travels over the 32GB/s bus it is able to be processed 8 times by the EDRAM logic to the EDRAM memory at a rate of 256GB/s so for every 32GB/s you send over 256GB/s gets processed. This results in RSX being at a bandwidth disadvantage in comparison to Xenos. Needless to say the 360 not only has an overabundance of video memory bandwidth, but it also has amazing memory saving features. For example to get 720P with 4XFSAA on traditional architecture would require 28MB worth of memory. On the 360 only 16MB is required. There are also features in the 360's Direct3D API where developers are able to fit 2 128x128 textures into the same space required for one, for example. So even with all the memory and all the memory bandwidth, they are still very mindful of how it’s used.

I wasn’t too clear earlier on the difference between the RSX’s dedicated pixel and vertex shader pipelines compared to the 360s unified shader architecture. The 360 GPU has 48 unified pipelines capable of accepting either pixel or vertex shader operations whereas with the older dedicated pixel and vertex pipeline architecture that RSX uses when you are in a vertex heavy situation most of the 24 pixel pipes go idle instead of helping out with vertex work.

Or on the flip side in a pixel heavy situation those 8 vertex shader pipelines are just idle and don’t help out the pixel pipes (because they aren’t able to), but with the 360’s unified architecture in a vertex heavy situation for example none of the pipes go idle. All 48 unified pipelines are capable of helping with either pixel or vertex shader operations when needed so as a result efficiency is greatly improved and so is overall performance. When pipelines are forced to go idle because they lack the capability to help another set of pipelines accomplish their task it’s detrimental to performance. This inefficient manner is how all current GPUs operate including the PS3's RSX. The pipelines go idle because the pixel pipes aren't able to help the vertex pipes accomplish a task or vice versa. Whats even more impressive about this GPU is it by itself determines the balance of how many pipelines to dedicate to vertex or pixel shader operations at any given time a programmer is NOT needed to handle any of this the GPU takes care of all this itself in the quickest most efficient way possible. 1080p is not a smart resolution to target in any form this generation, but if 360 developers wanted to get serious about 1080p, thanks to Xenos, could actually outperform the ps3 in 1080p. (The less efficient GPU always shows its weaknesses against the competition in higher resolutions so the best way for the rsx to be competitive is to stick to 720P) In vertex shader limited situations the 360’s gpu will literally be 6 times faster than RSX. With a unified shader architecture things are much more efficient than previous architectures allowed (which is extremely important). The 360’s GPU for example is 95-99% efficient with 4XAA enabled. With traditional architecture there are design related roadblocks that prevent such efficiency. To avoid such roadblocks, which held back previous hardware, the 360 GPU design team created a complex system of hardware threading inside the chip itself. In this case, each thread is a program associated with the shader arrays. The Xbox 360 GPU can manage and maintain state information on 64 separate threads in hardware. There's a thread buffer inside the chip, and the GPU can switch between threads instantaneously in order to keep the shader arrays busy at all times.

Want to know why Xenos doesn’t need as much raw horsepower to outperform say something like the x1900xtx or the 7900GTX? It makes up for not having as much raw horsepower by actually being efficient enough to fully achieve its advertised performance numbers which is an impressive feat. The x1900xtx has a peak pixel fillrate of 10.4Gigasamples a second while the 7900GTX has a peak pixel fillrate of 15.6Gigasamples a second. Neither of them is actually able to achieve and sustain those peak fillrate performance numbers though due to not being efficient enough, but they get away with it in this case since they can also bank on all the raw power. The performance winner between the 7900GTX and the X1900XTX is actually the X1900XTX despite a lower pixel fillrate (especially in higher resolutions) because it has twice as many pixel pipes and is the more efficient of the 2. It’s just a testament as to how important efficiency is. Well how exactly can the mere 360 GPU stand up to both of those with only a 128 bit memory interface and 500MHZ? Well the 360 GPU with 4XFSAA enabled achieves AND sustains its peak fillrate of 16Gigasamples per second which is achieved by the combination of the unified shader architecture and the excessive amount of bandwidth which gives it the type of efficiency that allows it to outperform GPUs with far more raw horsepower. I guess it also helps that it’s the single most advanced GPU currently available anyway for purchase. Things get even better when you factor in the Xenos’ MEMEXPORT ability which allows it to enable “streamout” which opens the door for Xenos to achieve DX10 class functionality. A shame Microsoft chose to disable Xenos’ other 16 pipelines to improve yields and keep costs down. Not many are even aware that the 360’s GPU has the exact same number of pipelines as ATI’s unreleased R600, but to keep costs down and to make the GPU easier to manufacture, Microsoft chose to disable one of the shader arrays containing 16 pipelines. What MEMEXPORT does is it expands the graphics pipeline in more general purpose and programmable manner.
I’ll borrow a quote from Dave Baumann since he explains it rather well.

“With the capability to fetch from anywhere in memory, perform arbitrary ALU operations and write the results back to memory, in conjunction with the raw floating point performance of the large shader ALU array, the MEMEXPORT facility does have the capability to achieve a wide range of fairly complex and general purpose operations; basically any operation that can be mapped to a wide SIMD array can be fairly efficiently achieved and in comparison to previous graphics pipelines it is achieved in fewer cycles and with lower latencies. For instance, this is probably the first time that general purpose physics calculation would be achievable, with a reasonable degree of success, on a graphics processor and is a big step towards the graphics processor becoming much more like a vector co-processor to the CPU.”
Even with all of this information there is still a lot more about this GPU that ATI just simply isn't revealing and considering they'll be borrowing technology used to design this GPU in their future pc products can you really blame them?

http://dpad.gotfrag.com/portal/story/35372/?spage=9

LINK 1 pagina:http://dpad.gotfrag.com/portal/story/35372/?spage=1

Sulla scheda video RSX è talmente lento da essere ben 1 generazione indietro!!!

Praticamente dice la GPU X360 è + efficente di quella della PS3, per il fatto che ha una architettura unificata.
R500 oltre le 48 pipeline avrebbe dovuto avere anche 16 in +, ma la MS le ha blocccate per il costo che comportava, quindi è come un R600 castrato però sempre R600 parlando di rumor(R600).
Poi c'è la funzionalità Memexport che dovrebbe realizzare, aprire le funzionalità come in DX10.
Dice anche che nelle oparazioni vertex R500 è 6 volte + veloce di RSx.
Secondo l'articolo R500 ha moltissime aree manageriali in cui è DX10 completamente, mentre in altre no.
Grazie all'Edram e all'architettura unificata R500 può fare 4X FSAA senza alcun costo in termini di prestazioni.
Praticamente, esempio, se facciamo il 720p + 4x FSAA, in un'architettura normale occuperebbe 28 MB di memoria, invece con X360 solo 16mb, oltre che il bus dell' EDRAM è di 256GB/s, è + alto anche di quello di G80.
La gpu X360 è dal 95-99% di efficenza con 4x FSAA.
Praticamente RSX sarebbe competitivo solo per il 720p ma non per il 1080p, i sviluppatori ricercano sta risoluzione in X360 perchè Xenos ha l'architettura unificata e un'efficenza altissima alle alte risoluzioni.
Belin rigurda bene il post, guarda alla fine in rosso.
TRADOTTO:

Una vergogna Microsoft ha scelto di inabilitare Xenos' altre 16 pipe per migliorare i rendimenti e mantenere i costi giù.

nico88desmo
14-11-2006, 20:17
...infatti non è così, il post che hai quotato è "sbagliato" nella descrizione. R500 ha architettura a shader unificati. Il chip è caratterizzato dalla presenza di 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading. Ogni unit è in grado di eseguire due operazioni di shading per ciclo di clock: in totale la GPU è quindi in grado di eseguire 96 operazioni di shading per ciclo di clock.

...ciao! :)

quante alu ha G80? Non mi ricordo.. :p

ATi7500
14-11-2006, 20:40
...infatti non è così, il post che hai quotato è "sbagliato" nella descrizione. R500 ha architettura a shader unificati. Il chip è caratterizzato dalla presenza di 48 shader unit unificate, ciascuna delle quali provvista di 4 ALU per le operazioni di pixel o vertex shading. Ogni unit è in grado di eseguire due operazioni di shading per ciclo di clock: in totale la GPU è quindi in grado di eseguire 96 operazioni di shading per ciclo di clock.

...ciao! :)
e le shader unit di G80 quante ALU hanno ciascuna?

bYeZ!

Dylan BJ
14-11-2006, 21:49
128 stream processors sulla GTX, 96 sulla GTS

Foglia Morta
15-11-2006, 10:40
http://www.theinquirer.net/default.aspx?article=35707

MANY THINGS ABOUT ATI's upcoming R600 are surprising, to say the least.

First of all, the GPU is a logical development that started with the R500Xenos, or Xbox GPU, but without the 10MB eDRAM part. Unlike the Xbox GPU, the R600 has to be able to support a large number of resolutions and, if we take a look at today's massive 5Mpix resolutions, it is quite obvious that R600 should feature at least five times more eDRAM than Xbox 360 has.

DAAMIT kept the RingBus configuration for the R600 as well, but now the number has doubled. The External memory controller is a clear 512-bit variant, while internally you will be treated with a bi-directional bus double the width. The 1024-bit Ringbus is approaching.

Since the company believes this is the best way to keep all of the shading units well-fed, the target is to have 16 pixels out in every clock, regardless of how complex the pixel might be. But, don’t think for a second that R600 is weaker than G80 on the account of ROP units alone.

We also learned the reason why the product was delayed for so long. It seems that ATI encountered yet another weird bug with the A0 silicon, but this one did not lock the chips at 500MHz, but rather disabled the Multi-sampling Anti-aliasing (MSAA). At press time, we were unable find out if the A1 revision still contains the bug or not. Retail boards will probably run A2 silicon.

R600 isn't running on final clocks yet, but the company is gunning for 700 to 800MHz clock for the GPU, which yields pixel a fill rate in the range of G80's or even a bit more. In terms of shading power, things are getting really interesting.

Twenty-four ROPs at 575MHz equals 13.8 billion pixels per clock, while 16 ROPs at 750MHz will end up at 12.0 billion pixels. At the same time, expect ATI to far better in more complex Shader-intensive applications.

Regarding the number of shaders, expect only marketing wars here. Nvidia has 128 Shader units, while the R600 on paper features "only" 64. However, don't expect ATI's own 64 Shaders to offer half of the performance. In fact, you might end up wildly surprised.

ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.

Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.

Regardless of your brand of preference, both G60 and R600 are extremely complex products which deliver hundreds of gigaflops of processing power and addressing wide range of usage models, from games to HDTV broadcasting and new baby named GPGPU usage.

secondo me non sarà così... già ora samsung può vendere gddr4 a 1.4ghz ( 2.8ghz ) , un po di tempo e magari potrebbe avere gddr4 a 1.6ghz ( 3.2ghz ) quindi con un normale bus a 256bit imho potrebbe andare più che bene

ATi7500
15-11-2006, 10:55
128 stream processors sulla GTX, 96 sulla GTS
io ho chiesto quante ALU ha ogni singolo stream processor

bYeZ!

LCol84
15-11-2006, 13:05
http://www.theinquirer.net/default.aspx?article=35707



secondo me non sarà così... già ora samsung può vendere gddr4 a 1.4ghz ( 2.8ghz ) , un po di tempo e magari potrebbe avere gddr4 a 1.6ghz ( 3.2ghz ) quindi con un normale bus a 256bit imho potrebbe andare più che bene

Uhm, ma perchè avere più bus in teoria non è sempre meglio? Chiedo perchè non mi è ben chiara il rapporto che ci deve essere tra il bus e le memorie... sapresti spiegarmelo? :stordita:
O forse il rapporto riguardava la quantità di ram in rapporto all'ampiezza del bus?

Foglia Morta
15-11-2006, 13:17
Uhm, ma perchè avere più bus in teoria non è sempre meglio? Chiedo perchè non mi è ben chiara il rapporto che ci deve essere tra il bus e le memorie... sapresti spiegarmelo? :stordita:
O forse il rapporto riguardava la quantità di ram in rapporto all'ampiezza del bus?
è meglio ma bisogna aumentare la complessità del pcb e quindi costi superiori. bus e memorie sono i fattori che determinano la banda passante , l'importante è che non faccia da collo di bottiglia alla gpu, es: 8800 GTX bus 384bit e memorie 1800Mhz danno una banda di 86,4Gbyte/sec , se R600 fosse affiancato da un bus di 256bit e memorie a 3.0Ghz avrebbe una banda di 96GByte/sec , e potrebbero pure risparmiare sui costi. Con la X1950 XTX tutto ciò che hanno fatto è aumentare la banda passante senza però metterci una gpu più veloce che la sfruttasse del tutto e infatti il guadagno rispetto alla X1900 XTX è piuttosto ridotto.

LCol84
15-11-2006, 14:19
è meglio ma bisogna aumentare la complessità del pcb e quindi costi superiori. bus e memorie sono i fattori che determinano la banda passante , l'importante è che non faccia da collo di bottiglia alla gpu, es: 8800 GTX bus 384bit e memorie 1800Mhz danno una banda di 86,4Gbyte/sec , se R600 fosse affiancato da un bus di 256bit e memorie a 3.0Ghz avrebbe una banda di 96GByte/sec , e potrebbero pure risparmiare sui costi. Con la X1950 XTX tutto ciò che hanno fatto è aumentare la banda passante senza però metterci una gpu più veloce che la sfruttasse del tutto e infatti il guadagno rispetto alla X1900 XTX è piuttosto ridotto.


Che calcolo hai fatto per ricavare la banda passante? :)

Quindi aumentando la frequenza delle memorie si può "risparmiare" sul bus e quindi sul costo del pcb giusto?

Marko#88
15-11-2006, 14:53
Che calcolo hai fatto per ricavare la banda passante? :)

Quindi aumentando la frequenza delle memorie si può "risparmiare" sul bus e quindi sul costo del pcb giusto?
per calcolare la banda passante si fa bus/8*frequenza memorie... ;)

Foglia Morta
15-11-2006, 14:56
Che calcolo hai fatto per ricavare la banda passante? :)

Quindi aumentando la frequenza delle memorie si può "risparmiare" sul bus e quindi sul costo del pcb giusto?
te l'avevo detto :D , i fattori vanno moltiplicati, larghezza bus per frequenza memoria e l'hai in bit , dividi per 8 e l'hai in byte ;)

Foglia Morta
15-11-2006, 14:57
http://uk.theinquirer.net/?article=35708

IT SEEMS the board which will DAAMIT will use as a host for its R600 GPU and corresponding components features a number of innovations and improvements that are interesting, to say the least.

First of all, you need to know that this PCB (Printed Circuit Board) is the most expensive one that DAAMIT has ever ordered. It's a complex 12-layer monster with certain manufacturing novelties used in order to support the requirements of the R600 chip, most notably the 512-bit memory controller and the distribution of power to the components.

The memory chips are arranged in a similar manner as on the G80, but each memory chip has its own 32-bit wide physical connection to the chip's RingBus memory interface. Memory bandwidth will therefore range from anywhere between 115 (GDDR3 at 8800GTX-style 900MHz in DDR mode - 1.8GHz) and 140.1GB/s (GDDR4 at 1.1GHz DDR, or 2.2GHz in marketingspeak).

This will pretty much leave the Geforce 8800 series in the dust, at least as far as marketing is concerned. O course, 86GB/s sounds pretty much like nothing when compared to 140GB/s - at least expect to see that writ large on the retail boxes.

The R600 board is HUGE but funnily enough, biot in length. Even though the very first revision of the board was as long as the 7900GX2, back in late August/early September engineers pulled a miracle and significantly reduced the size of the board. Right now, they are working on even further optimisations of components, but, from what we saw, this is the most packed product in history of 3D graphics.

The PCB will be shorter than 8800GTX's in every variant, and you can compare it to X1950XT and 7900GTX. The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?

This is the heaviest board that will hit the market and you will want to install the board while holding it with both hands. The cooler actually enhances the structural integrity of the PCB, so you should be aware that R600 will bring some interesting things to the table.

If you ask yourself why in the world AMD would design such a thing, the answer is actually right in front of you. Why is it important that a cooler is so big? Well, it needs to dissipate heat from practically every element of the board: GPU chip, memory chips and the power regulation unit.

There will be two versions of the board: Pele comes with GDDR4 memory, and UFO has GDDR3 memory, as Charlie already wrote here. DAAMIT is currently contemplating one and two gigabyte variants, offering a major marketing advantage over Graphzilla's "uncomputerly" 640 and 768MB.

Did we mention two gigabytes of video memory? Yup, insane - though perhaps not in the professional world, where this 2GB board will compete against upcoming G80GL and its 0.77/1.5GB of video memory. We do not expect that R600 with 2GB will exist in any other form than in FireGL series, but the final call hasn't been made yet.

The original Rage Theatre chip is gone for good. After relying on that chip for Vivo functions for almost a decade, the company decided to replace the chip with the newer digital Rage Theatre 200. It is not decided what marketing name will be used, but bear in mind that the R600 will feature video-in and video-out functions from day one. The death of the All-in-Wonder series made a big impact on many people inside the company and now there is a push to offer biggest support for HD in and out connectors.

When we turn to power, it seems the sites on-line are reporting values that are dead wrong, especially when mentioning the special power connectors which were present on the A0 engineering sample. Our sources are claiming they are complying to industry standards and that the spec for R600 is different that those rumoured. Some claim half of the rumours out there began life as FUD from Nvidia.

For starters, the rumour about this 80nm chip eating around 300W is far from truth. The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX. Our own Fudo was right in a detail - the R600 cooler is designed to dissipate 250 Watts. This was necessary to have an cooling headroom of at least 15 per cent. You can expect the R680 to use the same cooler as well and still be able to work at over 1GHz. This PCB is also the base for R700, but from what we are hearing, R700 will be a monster of a different kind.

As far as the Crossfire edition of the board goes, we can only say: good bye and good riddance.

Just like RV570, the X1900GT board, the R600 features new dual-bridge connector for Crossfire capability. This also ends nightmares of reviewers and partners, because reviewing Crossfire used to be such a pain, caused by the rarily of the Crossfire edition cards.

Expect this baby to be in stores during Q1'07, or around January 30th. You may be able to guess why this date is the target. µ

DjLode
15-11-2006, 15:06
E' spettacolare The Inquirer perchè ieri la scheda era lunga 30cm e la stavano accorciando. Oggi non è mai stata lunga 30cm e, anzi, sarà più corta della 8800 in tutte le sue varianti. Ieri ciucciava energia come non mai, oggi invece è nei limiti. Ieri era rumorosa e tutto quanto di negativo poteva esserci, oggi invece no...
Oh ma mettersi d'accordo :)

Foglia Morta
15-11-2006, 15:15
E' spettacolare The Inquirer perchè ieri la scheda era lunga 30cm e la stavano accorciando. Oggi non è mai stata lunga 30cm e, anzi, sarà più corta della 8800 in tutte le sue varianti. Ieri ciucciava energia come non mai, oggi invece è nei limiti. Ieri era rumorosa e tutto quanto di negativo poteva esserci, oggi invece no...
Oh ma mettersi d'accordo :)
dai tempo al tempo :D , il meglio di sè potrebbe darlo più avanti . Mi aspetto qualche bel numero anche da vr-zone

Kharonte85
15-11-2006, 15:28
E' spettacolare The Inquirer perchè ieri la scheda era lunga 30cm e la stavano accorciando. Oggi non è mai stata lunga 30cm e, anzi, sarà più corta della 8800 in tutte le sue varianti. Ieri ciucciava energia come non mai, oggi invece è nei limiti. Ieri era rumorosa e tutto quanto di negativo poteva esserci, oggi invece no...
Oh ma mettersi d'accordo :)
LOL... :D

Cmq questo passo:

The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?

This is the heaviest board that will hit the market and you will want to install the board while holding it with both hands. The cooler actually enhances the structural integrity of the PCB, so you should be aware that R600 will bring some interesting things to the table.

:eek: Ma che roba sara' sta scheda? :asd:
dai tempo al tempo :D , il meglio di sè potrebbe darlo più avanti .
:doh:

Dylan BJ
15-11-2006, 15:56
LOL... :D

Cmq questo passo:

The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?

This is the heaviest board that will hit the market and you will want to install the board while holding it with both hands. The cooler actually enhances the structural integrity of the PCB, so you should be aware that R600 will bring some interesting things to the table.

:eek: Ma che roba sara' sta scheda? :asd:

:doh:

potremmo chiamarla "cenerentola" questa R600... :p

Window Vista
15-11-2006, 16:10
R500 di X360 è un R600 castrato per colpa di MS:

MOLTE COSE relative all'annunciata R600 di ATI sono quantomeno sorprendenti.

Prima di tutto la nuova GPU è il logico sviluppo del progetto iniziato con la R500 Xenos, la GPU di Xbox 360, a parte i 10MB di eDRAM.


Diversamente dalla GPU di Xbox, infatti, l'R600 deve essere in grado di supportare un gran numero di risoluzioni diverse, considerando anche le pesanti risoluzioni attuali da 5 megapixel, è scontato che l'R600 debba disporre almeno di cinque volte più eDRAM di quella disponibile per Xbox 360.

AMD+ATI ha anche mantenuto per la R600 la configurazione RingBus, ma ora la sua capacità è raddoppiata. Il controller della memoria esterna è infatti chiaramente una variante a 512 bit, mentre internamente la gestione è affidata a un bus bidirezionale due volte più largo. È in arrivo quindi un RingBus a 1024 bit.

ATI crede che questo sia il miglior modo di mantenere ben nutrite tutte le unità di shading, l'obiettivo è di avere 16 pixel in uscita ogni ciclo di clock, indipendentemente da quanto complesso sia il trattamento effettuato sul pixel stesso. Ma non pensate neanche per un secondo che la R600 sia più scarsa della G80 effettuando un semplice conteggio delle unità ROP (raster operation).

Abbiamo anche saputo la ragione per la quale il prodotto è stato ritardato così a lungo. Sembra che ATI si sia trovata di fronte a un altro fastidioso bug nel silicio A0. Questo non blocca il processore a 500 MHz ma disabilita il Multi-sampling Anti-aliasing (MSAA). Al momento non sappiamo se la versione A1 del silicio contiene ancora il bug. Le schede pronte per la commercializzazione avranno probabilmente una versione A2 del silicio.

La R600 non sta quindi andando ancora alla sua velocità di clock definitiva, ma la società pensa di raggiungere 700 o 800MHz per la GPU, che dovrebbe garantire un fill rate dei pixel allo stesso livello della G80 o anche appena superiore. In termini di potenza di shading, le cose si fanno davvero interessanti.

Ventiquattro ROP a 575MHz equivalgono a 13,8 miliardi di pixel per ciclo di clock, mentre 16 ROP a 750MHz si fermano a 12 miliardi di pixel. Ma c'è ugualmente da aspettarsi che la ATI si comporti molto meglio con le più complesse applicazioni Shader-intensive.

Relativamente al numero delle unità di shader, ci sarà soltanto una guerra di annunci di marketing. Nvidia ha 128 unità shader, mentre la R600 sulla carta ne ha "soltanto" 64. Non bisogna pensare però che le 64 unità di ATI offrono metà delle prestazioni della concorrente. Alla fine è probabile che rimarrete largamente sorpresi.

La R600 integra infatti 64 unità di shader SIMD a quattro vie. Si tratta di un approccio molto diverso e più complesso rispetto a quello delle semplici unità scalari adottate da Nvidia.

Siccome ogni SIMD Shader della R600 può a calcolare il risultato di quattro unità scalari, potrebbe raggiungere prestazioni paragonabili a 256 unità più semplici, del tipo di quelle usate da Nvidia che sono realmente 128. Dobbiamo aspettarci quindi risultati molto interessanti in termini di prestazioni sotto DirectX10, e gli sviluppatori dei giochi pensano che il prodotto di Nvidia sarà più veloce nell'elaborazione delle istruzioni semplici mentre la R600 vincerà nel rendering delle ombre più complesse. In qualche modo si potrebbe comparare lo scontro R600 e G80 con le differenze tra Athlon XP e Pentium 4: il primo garantisce maggiori prestazioni per ogni ciclo di clock, mentre il secondo sfrutta frequenze più elevate per raggiungere prestazioni analoghe.

Indipendentemente dalle vostre preferenze in termini di brand e azienda, sia la G80 che la R600 sono prodotti estremamente complessi, che gestiscono una potenza di calcolo di centinaia di gigaflops offrendo un ampio spettro di modalità d'uso, dai giochi al broadcasting HDTV, oltre alle possibilità del nuovo approccio GPGPU.

LINK:http://it.theinquirer.net/2006/11/la_ati_r600_gestisce_solo_16_p.html

wiltord
15-11-2006, 16:12
il link non funge.

Dylan BJ
15-11-2006, 16:19
edit

Window Vista
15-11-2006, 16:21
il link non funge.
Adesso funzià!!

nico88desmo
15-11-2006, 18:08
R500 di X360 è un R600 castrato per colpa di MS:

AMD+ATI ha anche mantenuto per la R600 la configurazione RingBus, ma ora la sua capacità è raddoppiata. Il controller della memoria esterna è infatti chiaramente una variante a 512 bit, mentre internamente la gestione è affidata a un bus bidirezionale due volte più largo. È in arrivo quindi un RingBus a 1024 bit.

Secondo me i numeri del bus sono errati; imho r600 manterrà 256bit bus esterno e 512bit bus interno;


La R600 non sta quindi andando ancora alla sua velocità di clock definitiva, ma la società pensa di raggiungere 700 o 800MHz per la GPU, che dovrebbe garantire un fill rate dei pixel allo stesso livello della G80 o anche appena superiore. In termini di potenza di shading, le cose si fanno davvero interessanti.

Frequenze così elevate sono alquanto improbabili per la complessità del chip;
inoltre non ricordo la vendita di chip con questa frequenza di default nel passato;


Nvidia ha 128 unità shader, mentre la R600 sulla carta ne ha "soltanto" 64. Non bisogna pensare però che le 64 unità di ATI offrono metà delle prestazioni della concorrente. Alla fine è probabile che rimarrete largamente sorpresi.
La R600 integra infatti 64 unità di shader SIMD a quattro vie. Si tratta di un approccio molto diverso e più complesso rispetto a quello delle semplici unità scalari adottate da Nvidia.
Siccome ogni SIMD Shader della R600 può a calcolare il risultato di quattro unità scalari, potrebbe raggiungere prestazioni paragonabili a 256 unità più semplici, del tipo di quelle usate da Nvidia che sono realmente 128.


questo invece forse può essere vero...

Manca ancora parecchio al lancio dell'R600, con queste caratteristiche andrebbe sicuramente 2 volte più veloce dell'G80...a me sembra impossibile...

DjLode
15-11-2006, 18:44
Io non capisco perchè tutte le volte che esce una gpu nuova il fattore di velocità sia sempre "due volte" la gpu più veloce sul mercato...
Ti pare che possa uscire una gpu il doppio più veloce di G80? ;)

fede27
15-11-2006, 18:47
Manca ancora parecchio al lancio dell'R600, con queste caratteristiche andrebbe sicuramente 2 volte più veloce dell'G80...a me sembra impossibile...

andrebbe meglio nelle operazioni di shading, in quelle di calcolo starebbe un pochino sotto secondo il rumor ;)

CIaO

nico88desmo
15-11-2006, 19:19
forse ho un pò esagerato nel dire 2 volte più veloce :p , però come caratteristiche a me sembrano troppo esagerate...soprattutto frequenza chip e bus memoria;

se dopo sarà veramente così sempre meglio per noi utenti :D

fede27
15-11-2006, 19:21
sì la frequenza di 800MHz per il core mi sembra davvero un po'surreale..però giustificherebbe il dissi da mezza tonnellata :asd: :asd: :asd: :asd:

belin
15-11-2006, 21:47
quante alu ha G80? Non mi ricordo.. :p
e le shader unit di G80 quante ALU hanno ciascuna?

bYeZ!
...non vorrei dire una cavolata, ma per G80 non si parla di ALU ma di 128 MADD+MUL in totale. In questo momento non saprei dirvi la differenza tra ALU e MUL. :)

...ciao!

belin
15-11-2006, 21:51
E' spettacolare The Inquirer perchè ieri la scheda era lunga 30cm e la stavano accorciando. Oggi non è mai stata lunga 30cm e, anzi, sarà più corta della 8800 in tutte le sue varianti. Ieri ciucciava energia come non mai, oggi invece è nei limiti. Ieri era rumorosa e tutto quanto di negativo poteva esserci, oggi invece no...
Oh ma mettersi d'accordo :)
...come non quotarti!

...stanno raggiungendo livelli assurdi; capisco che uno dei loro compiti è raccogliere ogni tipo di rumors, ma almeno filtrare quelli "senza senso" non sarebbe male...

...ciao!

DjLode
15-11-2006, 22:22
...come non quotarti!

...stanno raggiungendo livelli assurdi; capisco che uno dei loro compiti è raccogliere ogni tipo di rumors, ma almeno filtrare quelli "senza senso" non sarebbe male...

...ciao!

A me ormai da l'idea di avere due o più persone che scrivono... e che non leggono quello che scrivono gli altri!!! escono news completamente contrastanti... oh, così facendo ci azzeccano quasi sempre :D

Dexther
15-11-2006, 22:57
A me ormai da l'idea di avere due o più persone che scrivono... e che non leggono quello che scrivono gli altri!!! escono news completamente contrastanti... oh, così facendo ci azzeccano quasi sempre :D

:asd:

Kharonte85
15-11-2006, 23:00
A me ormai da l'idea di avere due o più persone che scrivono... e che non leggono quello che scrivono gli altri!!! escono news completamente contrastanti... oh, così facendo ci azzeccano quasi sempre :D
:asd: :asd: :asd:

dantes76
16-11-2006, 00:30
LINK:http://it.theinquirer.net/2006/11/la_ati_r600_gestisce_solo_16_p.html

Part 1 of 2 16 ROP units only, but is more than equal match to G80

By Theo Valich: mercoledì 15 novembre 2006, 08.52
MANY THINGS ABOUT ATI's upcoming R600 are surprising, to say the least.

First of all, the GPU is a logical development that started with the R500Xenos, or Xbox GPU, but without the 10MB eDRAM part. Unlike the Xbox GPU, the R600 has to be able to support a large number of resolutions and, if we take a look at today's massive 5Mpix resolutions, it is quite obvious that R600 should feature at least five times more eDRAM than Xbox 360 has.

DAAMIT kept the RingBus configuration for the R600 as well, but now the number has doubled. The External memory controller is a clear 512-bit variant, while internally you will be treated with a bi-directional bus double the width. The 1024-bit Ringbus is approaching.

Since the company believes this is the best way to keep all of the shading units well-fed, the target is to have 16 pixels out in every clock, regardless of how complex the pixel might be. But, don’t think for a second that R600 is weaker than G80 on the account of ROP units alone.

We also learned the reason why the product was delayed for so long. It seems that ATI encountered yet another weird bug with the A0 silicon, but this one did not lock the chips at 500MHz, but rather disabled the Multi-sampling Anti-aliasing (MSAA). At press time, we were unable find out if the A1 revision still contains the bug or not. Retail boards will probably run A2 silicon.

R600 isn't running on final clocks yet, but the company is gunning for 700 to 800MHz clock for the GPU, which yields pixel a fill rate in the range of G80's or even a bit more. In terms of shading power, things are getting really interesting.

Twenty-four ROPs at 575MHz equals 13.8 billion pixels per clock, while 16 ROPs at 750MHz will end up at 12.0 billion pixels. At the same time, expect ATI to far better in more complex Shader-intensive applications.

Regarding the number of shaders, expect only marketing wars here. Nvidia has 128 Shader units, while the R600 on paper features "only" 64. However, don't expect ATI's own 64 Shaders to offer half of the performance. In fact, you might end up wildly surprised.

ATI's R600 features 64 Shader 4-way SIMD units. This is a very different and complex approach compared to Nvidia's relatively simple scalar Shader units.

Since R600 SIMD Shader can calculate the result of four scalar units, it yields with scalar performance of 256 units - while Nvidia comes with 128 "real" scalar units. We are heading for very interesting results in DX10 performance, since game developers expect that NV stuff will be faster in simple instrucions and R600 will excel in complex shader arena. In a way, you could compare R600 and G80 as Athlon XP versus Pentium 4 - one was doing more work in a single clock, while the other was using higher clock speed to achieve equal performance.

Regardless of your brand of preference, both G60 and R600 are extremely complex products which deliver hundreds of gigaflops of processing power and addressing wide range of usage models, from games to HDTV broadcasting and new baby named GPGPU usage. µ


http://www.theinquirer.net/default.aspx?article=35707



ATI..AMD's R600 board is a monster

Part 2 Most complex PCB and the heaviest 3D card ever

By Theo Valich: mercoledì 15 novembre 2006, 13.07
IT SEEMS the board which will DAAMIT will use as a host for its R600 GPU and corresponding components features a number of innovations and improvements that are interesting, to say the least.

First of all, you need to know that this PCB (Printed Circuit Board) is the most expensive one that DAAMIT has ever ordered. It's a complex 12-layer monster with certain manufacturing novelties used in order to support the requirements of the R600 chip, most notably the 512-bit memory controller and the distribution of power to the components.

The memory chips are arranged in a similar manner as on the G80, but each memory chip has its own 32-bit wide physical connection to the chip's RingBus memory interface. Memory bandwidth will therefore range from anywhere between 115 (GDDR3 at 8800GTX-style 900MHz in DDR mode - 1.8GHz) and 140.1GB/s (GDDR4 at 1.1GHz DDR, or 2.2GHz in marketingspeak).

This will pretty much leave the Geforce 8800 series in the dust, at least as far as marketing is concerned. O course, 86GB/s sounds pretty much like nothing when compared to 140GB/s - at least expect to see that writ large on the retail boxes.

The R600 board is HUGE but funnily enough, biot in length. Even though the very first revision of the board was as long as the 7900GX2, back in late August/early September engineers pulled a miracle and significantly reduced the size of the board. Right now, they are working on even further optimisations of components, but, from what we saw, this is the most packed product in history of 3D graphics.

The PCB will be shorter than 8800GTX's in every variant, and you can compare it to X1950XT and 7900GTX. The huge thing is the cooler. It is a monstrous, longer-than-the-PCB quad-heat pipe, Artic-Cooling style-fan on steroids looking beast, built from a lot of copper. Did we say that it also weighs half a ton?

This is the heaviest board that will hit the market and you will want to install the board while holding it with both hands. The cooler actually enhances the structural integrity of the PCB, so you should be aware that R600 will bring some interesting things to the table.

If you ask yourself why in the world AMD would design such a thing, the answer is actually right in front of you. Why is it important that a cooler is so big? Well, it needs to dissipate heat from practically every element of the board: GPU chip, memory chips and the power regulation unit.

There will be two versions of the board: Pele comes with GDDR4 memory, and UFO has GDDR3 memory, as Charlie already wrote here. DAAMIT is currently contemplating one and two gigabyte variants, offering a major marketing advantage over Graphzilla's "uncomputerly" 640 and 768MB.

Did we mention two gigabytes of video memory? Yup, insane - though perhaps not in the professional world, where this 2GB board will compete against upcoming G80GL and its 0.77/1.5GB of video memory. We do not expect that R600 with 2GB will exist in any other form than in FireGL series, but the final call hasn't been made yet.

The original Rage Theatre chip is gone for good. After relying on that chip for Vivo functions for almost a decade, the company decided to replace the chip with the newer digital Rage Theatre 200. It is not decided what marketing name will be used, but bear in mind that the R600 will feature video-in and video-out functions from day one. The death of the All-in-Wonder series made a big impact on many people inside the company and now there is a push to offer biggest support for HD in and out connectors.

When we turn to power, it seems the sites on-line are reporting values that are dead wrong, especially when mentioning the special power connectors which were present on the A0 engineering sample. Our sources are claiming they are complying to industry standards and that the spec for R600 is different that those rumoured. Some claim half of the rumours out there began life as FUD from Nvidia.

For starters, the rumour about this 80nm chip eating around 300W is far from truth. The thermal budget is around 200-220 Watts and the board should not consume more power than a Geforce 8800GTX. Our own Fudo was right in a detail - the R600 cooler is designed to dissipate 250 Watts. This was necessary to have an cooling headroom of at least 15 per cent. You can expect the R680 to use the same cooler as well and still be able to work at over 1GHz. This PCB is also the base for R700, but from what we are hearing, R700 will be a monster of a different kind.

As far as the Crossfire edition of the board goes, we can only say: good bye and good riddance.

Just like RV570, the X1900GT board, the R600 features new dual-bridge connector for Crossfire capability. This also ends nightmares of reviewers and partners, because reviewing Crossfire used to be such a pain, caused by the rarily of the Crossfire edition cards.

Expect this baby to be in stores during Q1'07, or around January 30th. You may be able to guess why this date is the target. µ

http://www.theinquirer.net/default.aspx?article=35708

Dylan BJ
16-11-2006, 01:27
theinquirer.. theinquirer.... se non ci fossi bisognerebbe inventarti :p

Defragg
16-11-2006, 09:18
theinquirer.. theinquirer.... se non ci fossi bisognerebbe inventarti :p
per insultarti :asd:

Skullcrusher
16-11-2006, 09:20
per insultarti :asd:

Ma se non ci fosse the inquirer, poi ci sarebbero meno rumors...e noi come faremmo a discutere? :asd:

Defragg
16-11-2006, 09:21
Ma se non ci fosse the inquirer, poi ci sarebbero meno rumors...e noi come faremmo a discutere? :asd:
appunto...chi insulteremmo se non ci fosse the inquirer?
:asd:
per questo deve esserci :D

Dylan BJ
16-11-2006, 12:45
certo... senza theinq la vita sarebbe piatta e monotona................
w the inq!! e w pure la recente localizz in ita!!!!
il cui forum e' sempre vuoto......
:)

Defragg
16-11-2006, 12:48
e w pure la recente localizz in ita!!!!
il cui forum e' sempre vuoto......
:)
:asd:
ci sarà un motivo :ciapet:

Simon82
16-11-2006, 13:01
The inquirer a volte ci tenta ma ci sono anche volte che dimostra davvero di avere qualche contatto.E' gia successo di vedere foto e dettagli in anteprima poi rivelatosi reali. ;)

Skullcrusher
16-11-2006, 13:04
The inquirer a volte ci tenta ma ci sono anche volte che dimostra davvero di avere qualche contatto.E' gia successo di vedere foto e dettagli in anteprima poi rivelatosi reali. ;)

Sì, è vero...ogni tanto spara notizie campate in aria, ma altre volta le notizie sono vere....in ogni caso è utile che ci sia :D

Catan
16-11-2006, 13:30
Sì, è vero...ogni tanto spara notizie campate in aria, ma altre volta le notizie sono vere....in ogni caso è utile che ci sia :D

il problema è che poi dicono l'80% di boiate e il 20% di cose giuste...solo che la gente che legge quel sito crede che l'80% sia giusto e il 20% sbagliato :D :D

dantes76
16-11-2006, 14:39
The inquirer a volte ci tenta ma ci sono anche volte che dimostra davvero di avere qualche contatto.E' gia successo di vedere foto e dettagli in anteprima poi rivelatosi reali. ;)

TheInq, e molto vicino a Ati

Dylan BJ
16-11-2006, 14:43
TheInq, e molto vicino a Ati
quoto.. e aggiuno theinq e ati hanno pianta stabile nello stesso qartier generale e alla pausa caffe' si scambiano le info!!! hihih :p

dantes76
16-11-2006, 14:47
quoto.. e aggiuno theinq e ati hanno pianta stabile nello stesso qartier generale e alla pausa caffe' si scambiano le info!!! hihih :p

???
potresti chiedere direttamente al Capoccia di Hwupgrade...

Dylan BJ
16-11-2006, 19:31
???
potresti chiedere direttamente al Capoccia di Hwupgrade...
:p :D

appleroof
16-11-2006, 21:57
Non so se sono old e cmq non aggiungono molto, l'unica cosa interessante è la previsione dell'uscita di r600 per fine gennaio (per quanto attendibile...):


http://www.hwstation.net/news/Schede--video/105.html

http://www.hwstation.net/news/Schede--video/101.html

Kharonte85
16-11-2006, 22:10
Non so se sono old e cmq non aggiungono molto, l'unica cosa interessante è la previsione dell'uscita di r600 per fine gennaio (per quanto attendibile...):


http://www.hwstation.net/news/Schede--video/105.html

http://www.hwstation.net/news/Schede--video/101.html
Si' gia tutto letto :old: (forse non in ITA pero' :D )

Fine gennaio non sarebbe male...

breakz
16-11-2006, 22:25
Magari fine gennaio....:D....sarebbe 1 dritta immensa...considerando poi
la concomitanza con l'uscita di Vista...nn sarebbe poi neanke tanto azzardata come data...no???

Avere il denare per comperare e aspettare r600 nn facendosi allettare dalla
8800....é.....diciamo 1po'...tosta...x così dire, anke se puoi guardare per 1
po' la situazione diciamo dall'alto....come 1 stratega....

Aspettare ati con R600?...Oppure aspettare l'ipotetica ( davvero?) mossa
dell'Nvidia con l'8900 (stile 7800 --> 7900)...oppure buttare tutto nel cesso
e tornare ad....ke so Amiga?!?!?!?!?...:D....Voi ke dite?

Ovviamente é scontato dire ke aspetto test ma anke dimensioni visto ke fra poko ci vorrà 1 cuccia per il pc...;)

Marko#88
16-11-2006, 22:30
Non so se sono old e cmq non aggiungono molto, l'unica cosa interessante è la previsione dell'uscita di r600 per fine gennaio (per quanto attendibile...):


http://www.hwstation.net/news/Schede--video/105.html

http://www.hwstation.net/news/Schede--video/101.html
30 gennaio...sarebbe bello se uscisse veramente in quella data...comunque pensate se fosse stata veramente 30.5cm la versione finale!!! :eek: :eek: :eek:

Defragg
17-11-2006, 14:28
magari la venderanno con in bundle Vista ;)
chi lo sà :mc:

Dylan BJ
17-11-2006, 14:59
magari la venderanno con in bundle Vista ;)
chi lo sà :mc:
ahahaha!! :p
:sofico:

Foglia Morta
17-11-2006, 16:36
quasi ot però posto ugualmente:

THE ATI R600 will represent the last of it's breed, the monolithic GPU.

It will be replaced by a cluster of smaller GPUs with the R700 generation. This is the biggest change in the paradigm since 3Dfx came out with SLI, oh so many years ago.

Basically, if you look at the architecture of any modern GPU, R5xx/6xx or G80, it comprises pretty modular units connected by a big interconnect. Imagine if the interconnect was more distributed like say an Opteron and HT, you could have four small chips instead of one big one.

This would have massive advantages on design time, you need to make a chip of quarter the size or less, and just place many of them on the PCB. If you want a low-end board, use one, mid-range use four, pimped out edition, 16. You get the idea, Lego.

It takes a good bit of software magic to make this work, but word has it that ATI has figured out this secret sauce. What this means is R700 boards will be more modular, more scalable, more consistent top to bottom, and cheaper to fab. In fact, when they launch one SKU, they will have the capability to launch them all. It is a win/win for ATI.

There have been several code names floating around for weeks on this, and we hear it is pretty much a done deal. Less concrete is the rumour that G90 will take a similar path, but things are pointing in that direction.

G80 and R600, or most likely their descendants in the next half-generation step, will be the biggest GPUs ever. I am not sure this is something to be proud of, but the trigger has been pulled on the next big thing. The big GPU is dead, long live the swarm of little GPUs.

http://www.theinquirer.net/default.aspx?article=35818

LCol84
17-11-2006, 17:16
quasi ot però posto ugualmente:



http://www.theinquirer.net/default.aspx?article=35818

Sembra quindi che anche le gpu siano infatti arrivate alla frutta come dimensioni e complessità, quindi un approcio simile a quello dei processore multicore odierni sarà l'unica via. Ben venga se così si riuscirà a aumentare le performance a costi più bassi e consumi più ridotti. Alla fine produrre chip con tanti transistor funzionananti è sempre di più una scommessa, quindi produrne di più più piccoli dovrebbe facilitare di non poco...

Che dire aspettiamo cona ansia r700 mentre però sbaveremo su r600 ;)
:asd:

W LA MODULARITA' !!!

xxxyyy
18-11-2006, 02:11
Quasi quasi cancello il G90 dalla mia firma... mi piace troppo l'approccio di ATi... AMD verso le nuove GPU.
:)

ale0bello0pr
18-11-2006, 12:58
Quasi quasi cancello il G90 dalla mia firma... mi piace troppo l'approccio di ATi... AMD verso le nuove GPU.
:)

scusami ma il tuo futuro computer che hai in firma è inutile :rolleyes:
8GB DDR3? :rolleyes: e che te ne fai..per aumentare il peso del PC? :D

The_max_80
18-11-2006, 13:11
scusami ma il tuo futuro computer che hai in firma è inutile :rolleyes:
8GB DDR3? :rolleyes: e che te ne fai..per aumentare il peso del PC? :D
quoto, è altrettanto inutile fare una previsione ad 1 anno e mezzo...ma sai quante cose cambiano!??!?!

nickdc
18-11-2006, 13:16
Credo che la sua firma sia ironica.

xxxyyy
18-11-2006, 14:12
Non e' per niente ironica la mia firma... dove la vedete l'ironia?
Com le informazioni attuali, quello e' il PC che mi faro' tra un anno.
Ovviamente e' un WIP.

Ciao
:)

xxxyyy
18-11-2006, 14:15
scusami ma il tuo futuro computer che hai in firma è inutile :rolleyes:
8GB DDR3? :rolleyes: e che te ne fai..per aumentare il peso del PC? :D

Cosa te ne fai di piu' di 640KB di RAM? disse il buon Bill.
:rolleyes:

xxxyyy
18-11-2006, 14:16
quoto, è altrettanto inutile fare una previsione ad 1 anno e mezzo...ma sai quante cose cambiano!??!?!

Si... arrivano le R700 e G90, arrivano gli Yorkfield e K8L, arrivano le DDR3, etc etc..
Se leggete bene, e' una PREVISIONE.
:)

Kharonte85
21-11-2006, 19:07
http://www.mmorpgitalia.it/forum/images/smilies/Uppone.gif

Speravate nella notiziona eh? :Prrr:

Allora? Novità? :mc:

Dexther
21-11-2006, 19:09
http://www.mmorpgitalia.it/forum/images/smilies/Uppone.gif

Speravate nella notiziona eh? :Prrr:

Allora? Novità? :mc:

:rotfl:

DjLode
21-11-2006, 19:09
Niente di nuovo all'orizzonte. Solo rumor da baraccone nel forum...

Skullcrusher
21-11-2006, 19:53
http://www.mmorpgitalia.it/forum/images/smilies/Uppone.gif

Speravate nella notiziona eh? :Prrr:

Allora? Novità? :mc:

:rotfl: :rotfl: :rotfl:

Alberello69
21-11-2006, 19:55
e vai con lo spammm
:muro:

Marko#88
21-11-2006, 20:09
Non e' per niente ironica la mia firma... dove la vedete l'ironia?
Com le informazioni attuali, quello e' il PC che mi faro' tra un anno.
Ovviamente e' un WIP.

Ciao
:)
a me fa ridere mettere in firma un computer che non si ha...e soprattutto una previsione cosi avanti...chissà quante cose succederanno...

Defragg
21-11-2006, 21:14
a me fa ridere mettere in firma un computer che non si ha...e soprattutto una previsione cosi avanti...chissà quante cose succederanno...
ognuno fà ciò che ritiene giusto per sè...nei limiti del regolamento...quindi mi pare fuori luogo commentare una firma che "prevede" un futuro sistema... ;)

e poi...se invece di mettere tutto quello metteva un QX6700, 4GB(4x1GB) Corsair Dominator, 2x 8800GTX 768MB, 4x Western Digital Raptor 150GB in RAID chi più ne più ne metta, scommetto che nessuno avrebbe avuto da ridire

:mano: :cincin:

Marko#88
21-11-2006, 21:29
ognuno fà ciò che ritiene giusto per sè...nei limiti del regolamento...quindi mi pare fuori luogo commentare una firma che "prevede" un futuro sistema... ;)

e poi...se invece di mettere tutto quello metteva un QX6700, 4GB(4x1GB) Corsair Dominator, 2x 8800GTX 768MB, 4x Western Digital Raptor 150GB in RAID chi più ne più ne metta, scommetto che nessuno avrebbe avuto da ridire

:mano: :cincin:
certo certo hai ragione...ho solo espresso il mio parere, siamo tutti liberissimi di farlo...chiunque ad esempio puo commentare la mia firma mica mi lamento...e poi non era una critica dico solo che di qui a un anno/un anno e mezzo è difficile fare previsione...comunque forse è il caso di tornare it, mi scuso... :)

fukka75
22-11-2006, 12:09
e poi...se invece di mettere tutto quello metteva un QX6700, 4GB(4x1GB) Corsair Dominator, 2x 8800GTX 768MB, 4x Western Digital Raptor 150GB in RAID chi più ne più ne metta, scommetto che nessuno avrebbe avuto da ridire

:mano: :cincin:
Ovviamente, visto che è tutto hw già esistente ;)

gianlu75xp
22-11-2006, 12:30
Uffa!

Ati mi ha scelto come tester per R600 ma sconto la mancanza di driver ad hoc.... con i Catalyst 6.11 e scheda @ default al 3D Mark 06 totalizzo solamente 14768 pt. :help:

Errata corrige: avevo dimenticato l'AA 6X, ora rifaccio il test :ciapet:























Scherzi a parte.... nessuna novità? Probabile uscita? Gennaio/Febbraio? :)

Skullcrusher
22-11-2006, 12:34
Uffa!

Ati mi ha scelto come tester per R600 ma sconto la mancanza di driver ad hoc.... con i Catalyst 6.11 e scheda @ default al 3D Mark 06 totalizzo solamente 14768 pt. :help:

Errata corrige: avevo dimenticato l'AA 6X, ora rifaccio il test :ciapet:

Scherzi a parte.... nessuna novità? Probabile uscita? Gennaio/Febbraio? :)

No, al momento non si sa ancora nulla, si parla di febbraio o di metà marzo ;)

Foglia Morta
24-11-2006, 14:53
No, al momento non si sa ancora nulla, si parla di febbraio o di metà marzo ;)
ultimi rumour parlano di gennaio

http://img218.imageshack.us/my.php?image=r600kn2.jpg

http://img220.imageshack.us/my.php?image=r600mkl9.jpg

http://img215.imageshack.us/my.php?image=r600nyc6.jpg

wiltord
24-11-2006, 15:17
bellino:

http://img220.imageshack.us/img220/1613/r600mkl9.jpg

:)

Foglia Morta
24-11-2006, 15:31
http://img217.imageshack.us/img217/3494/r600foq2.jpg
http://img295.imageshack.us/img295/8572/r600siu2.jpg
http://img218.imageshack.us/img218/6650/r600qra1.jpg
http://img218.imageshack.us/img218/7868/r600kn2.jpg
http://img215.imageshack.us/img215/4365/r600nyc6.jpg

Foglia Morta
24-11-2006, 16:14
la fonte delle foto dice che l'nda scade il 20 Gennaio , die un po più piccolo di G80 ma quasi sicuramente è a 80nm

Kharonte85
24-11-2006, 17:10
cut
Carino... :D

Window Vista
24-11-2006, 17:16
la fonte delle foto dice che l'nda scade il 20 Gennaio , die un po più piccolo di G80 ma quasi sicuramente è a 80nm
Du palle aspettare il 20, non si potrebbe fare vedere un pò di test!!!

Dylan BJ
24-11-2006, 17:38
Du palle aspettare il 20, non si potrebbe fare vedere un pò di test!!!
:D

Dexther
24-11-2006, 17:55
Du palle aspettare il 20, non si potrebbe fare vedere un pò di test!!!

davvero! almeno mi sarebbe di stimolo per non passare alla concorrenza :sofico:

Window Vista
24-11-2006, 17:59
davvero! almeno mi sarebbe di stimolo per non passare alla concorrenza :sofico:
Modestamente!!!! :D

LCol84
24-11-2006, 18:42
Ma sbaglio o il core di r600 è parekkio più piccolo di g80?
Forse il processo produttivo di 80 nm e le 64 unità di shading (contro le 128 di g80) han permesso tutto cioò..Chissà i consumi ma spero (e credo) che siano nferiori a g80 a questo punto!

Athlon 64 3000+
24-11-2006, 18:48
se viene presentata il 20 gennaio tanto meglio cosi non ci sarà ancora troppo da aspettaree finalmente vedremo anche R600 in azione.

Alberello69
24-11-2006, 19:02
ma non si sa ancora a quanto é il processo produttivo? :mbe:

Window Vista
24-11-2006, 19:23
ma non si sa ancora a quanto é il processo produttivo? :mbe:
80NM, leggi la pagina prima di questa

breakz
24-11-2006, 19:35
mmmmmm..prevedo grosse battaglie........e sorprese (da parte di ATi..X FORZA!)....senza contare poi la fatidica,futura ( se presente) contromossa di NVIDIA....bene,bene!... :D.....Sperando poi ke entro il 30 di gennaio si veda qualkosa... :mbe:

Foglia Morta
24-11-2006, 19:40
Ma sbaglio o il core di r600 è parekkio più piccolo di g80?
Forse il processo produttivo di 80 nm e le 64 unità di shading (contro le 128 di g80) han permesso tutto cioò..Chissà i consumi ma spero (e credo) che siano nferiori a g80 a questo punto!
R600 , in base a quanto dice la fonte delle foto , è 20.23mm X 21.17mm ed è a 80nm . G80 invece è 21.5mmx22.5mm . Quindi il die di R600 è circa 430mm quadrati mentre G80 è 484mm quadrati.

Skullcrusher
24-11-2006, 19:42
Ottimo, non sarebbe affatto male se R600 uscisse per fine gennaio... :D

Defragg
24-11-2006, 20:37
la cosa di strano è che di solito è ATi ad avere più pipe di nVidia (R580 vs G71 su tutti)
chissà cosa bolle in pentola

nico88desmo
24-11-2006, 20:53
lo ho preso da un post precedente...

La R600 integra infatti 64 unità di shader SIMD a quattro vie. Si tratta di un approccio molto diverso e più complesso rispetto a quello delle semplici unità scalari adottate da Nvidia.

Siccome ogni SIMD Shader della R600 può a calcolare il risultato di quattro unità scalari, potrebbe raggiungere prestazioni paragonabili a 256 unità più semplici, del tipo di quelle usate da Nvidia che sono realmente 128.

vedremo :cool:

MaBru
24-11-2006, 20:58
Qualcuno mi sa spiegare perché il die è ruotato di 45° rispetto al package?

Skullcrusher
24-11-2006, 21:10
lo ho preso da un post precedente...

La R600 integra infatti 64 unità di shader SIMD a quattro vie. Si tratta di un approccio molto diverso e più complesso rispetto a quello delle semplici unità scalari adottate da Nvidia.

Siccome ogni SIMD Shader della R600 può a calcolare il risultato di quattro unità scalari, potrebbe raggiungere prestazioni paragonabili a 256 unità più semplici, del tipo di quelle usate da Nvidia che sono realmente 128.

vedremo :cool:

Proprio questo è quello che mi incuriosisce :D

LCol84
24-11-2006, 21:21
R600 , in base a quanto dice la fonte delle foto , è 20.23mm X 21.17mm ed è a 80nm . G80 invece è 21.5mmx22.5mm . Quindi il die di R600 è circa 430mm quadrati mentre G80 è 484mm quadrati.

ah interessante. Io mi ero semplicemente basato sulla foto, e guardandola mi sembravo un die piccolo rispetto alla corince. Ma magari hanno anche cambiato la dimensione della cornice... Boh. Ne vedremo delle belle. Dai che prima esce e prima mi posso permettere un x2950pro a 200€ :asd:

Foglia Morta
24-11-2006, 23:13
http://www.iamxtreme.net/andre/R600.jpg
http://www.iamxtreme.net/andre/R600_1.jpg
http://www.iamxtreme.net/andre/R600_2.jpg
http://www.iamxtreme.net/andre/R600_3.jpg

Foglia Morta
24-11-2006, 23:44
Da quelle foto R600 dovrebbe avere 2140 pin , R580 ne ha 1265 :eek: .
Chissà forse è vero che avrà un bus a 512bit

breakz
24-11-2006, 23:45
fonti delle immagini?

Foglia Morta
24-11-2006, 23:48
fonti delle immagini?
guardi le proprietà delle immagini e vedi l'indirizzo...

I pin di R600 dovrebbero essere almeno 2100 , forse 2200 - 2250, ci vuole qualcuno che si metta a contare :D

Kharonte85
24-11-2006, 23:53
http://www.iamxtreme.net/andre/R600.jpg
http://www.iamxtreme.net/andre/R600_1.jpg
http://www.iamxtreme.net/andre/R600_2.jpg
http://www.iamxtreme.net/andre/R600_3.jpg
Vedo che ci sono i collegamenti alle immagini ma non vedo assolutamente niente... :confused: :boh: sara il sito intasato...

nickdc
25-11-2006, 00:02
Vedo che ci sono i collegamenti alle immagini ma non vedo assolutamente niente... :confused: :boh: sara il sito intasato...
Io riesco a vederle tranquillamente. :mbe:

Hal2001
25-11-2006, 00:07
guardi le proprietà delle immagini e vedi l'indirizzo...

Non esiste nessuna index per quel sito.

Kharonte85
25-11-2006, 00:07
Io riesco a vederle tranquillamente. :mbe:
Ok...allora sto morendo...:cry:

Non me le carica proprio :mad:

nickdc
25-11-2006, 00:08
Ok...allora sto morendo...:cry:

Non me le carica proprio :mad:
Copia il link dell'immagine e incollalo nella barra degli indirizzi del browser. ;)

Foglia Morta
25-11-2006, 00:09
Non esiste nessuna index per quel sito.
http://www.pcdvd.com.tw/showthread.php?t=672250&page=8&pp=10

Hal2001
25-11-2006, 00:12
http://www.pcdvd.com.tw/showthread.php?t=672250&page=8&pp=10

LOL l'articolo è sul sito cinese, e le foto su un hosting francese :)

A proposito da quando capisci il cinese o quel che è? :D

Kharonte85
25-11-2006, 00:12
Copia il link dell'immagine e incollalo nella barra degli indirizzi del browser. ;)
Non sono cosi' stordito...gia' provato :D Ma niente :mad:

Non è che qualcuno che le vede gentilmente le hosta su Imageshack...please... :cry:

nickdc
25-11-2006, 00:13
Non sono cosi' stordito...gia' provato :D Ma niente :mad:
Ah ok. :D

Foglia Morta
25-11-2006, 00:17
LOL l'articolo è sul sito cinese, e le foto su un hosting francese :)

A proposito da quando capisci il cinese o quel che è? :D
le speculazioni che riporto vengono da un forum inglese :D dal quale si capisce un po di più, ma in quel forum ci sono anche taiwanesi , norvegesi , cechi , italiani , tedeschi... è complesso :D


Edit: integro: R580 dovrebbe avere 1265 pin , G80 1557 pin e R600 intorno 2100 - 2250 pin . La complessità non gli manca a quanto pare

Kharonte85
25-11-2006, 00:22
Ah ok. :D
Tanto per verificare che non sono pazzo io non le vedo cosi': :D

http://img400.imageshack.us/img400/9033/immaginesf7.jpg

Azz... è venuta uno schifo...sorry

Hal2001
25-11-2006, 00:22
Insomma, ti stai facendo una cultura multi etnica con la scusa del chip :D

Foglia Morta
25-11-2006, 00:25
Tanto per verificare che non sono pazzo io non le vedo cosi': :D

http://img400.imageshack.us/img400/9033/immaginesf7.jpg

Azz... è venuta uno schifo...sorry
io le vedo :sofico:

meno pugnette :D

Comunque in più si vedono solo i pin... non ti perdi nulla se non che sono veramente tanti

appleroof
25-11-2006, 10:19
Stando a quanto piano piano stà venendo fuori (256 shader "effettivi", chip molto complesso e forse 512bit di bus) stà scheda sarà un mostro, come volevasi dimostrare.... :eek:

Skullcrusher
25-11-2006, 10:22
Stando a quanto piano piano stà venendo fuori (256 shader "effettivi", chip molto complesso e forse 512bit di bus) stà scheda sarà un mostro, come volevasi dimostrare.... :eek:

Sì, se davvero sono queste le caratteristiche, sulla carta è probabile un netto distacco rispetto all'8800GTX...poi come insegna l'esperienza, bisogna vederla effettivamente in azione... :rolleyes:

gianlu75xp
25-11-2006, 10:56
Sì, se davvero sono queste le caratteristiche, sulla carta è probabile un netto distacco rispetto all'8800GTX...poi come insegna l'esperienza, bisogna vederla effettivamente in azione... :rolleyes:

Vedremo se saprà calcare le orme del successo della 9700 PRO, scheda che sbaragliò per un lungo periodo la controparte all'uscita delle nuove directX

Kharonte85
25-11-2006, 11:06
io le vedo :sofico:

meno pugnette :D
:D

Anche stamattina non le vedo... :muro:

Comunque in più si vedono solo i pin... non ti perdi nulla se non che sono veramente tanti
Vabbe'... :(
Stando a quanto piano piano stà venendo fuori (256 shader "effettivi", chip molto complesso e forse 512bit di bus) stà scheda sarà un mostro, come volevasi dimostrare.... :eek:
Io sono curioso di vedere anche il famoso mostruoso dissipatore (quello che si dice debba essere piu' lungo della scheda stessa) e i consumi... :help:

appleroof
25-11-2006, 12:07
Io sono curioso di vedere anche il famoso mostruoso dissipatore (quello che si dice debba essere piu' lungo della scheda stessa) e i consumi... :help:


Si, effettivamente da quello che ho visto bisognerà rinunciare anche a tutti gli slot pci :asd: :asd:

quanto ai consumi vediamo, anche per g80 c'era gente che prevedeva catastrofi energetiche e la necessità di dotarsi di centrali nucleari casalinghe e poi vanno con la maggior parte degli ali in circolazione... :D

Simon82
25-11-2006, 12:32
http://www.iamxtreme.net/andre/R600.jpg
http://www.iamxtreme.net/andre/R600_1.jpg
http://www.iamxtreme.net/andre/R600_2.jpg
http://www.iamxtreme.net/andre/R600_3.jpg
Se confermate... ma... e' enorme! :eek: :D

Skullcrusher
25-11-2006, 14:24
Si, effettivamente da quello che ho visto bisognerà rinunciare anche a tutti gli slot pci :asd: :asd:

quanto ai consumi vediamo, anche per g80 c'era gente che prevedeva catastrofi energetiche e la necessità di dotarsi di centrali nucleari casalinghe e poi vanno con la maggior parte degli ali in circolazione... :D

E' vero...alla fine consuma poco più di una x1950xtx....per fortuna :stordita:

Come al solito, meglio aspettare dati certi, e non fantasticare su notizie sentite dire chissà dove :p

LCol84
25-11-2006, 14:30
E' vero...alla fine consuma poco più di una x1950xtx....per fortuna :stordita:

Come al solito, meglio aspettare dati certi, e non fantasticare su notizie sentite dire chissà dove :p

Magari col fatto che è a 80nm r600 consumerà qualcosina di meno di g80...vi immaginate che roba? :asd:

dantes76
25-11-2006, 14:38
http://img299.imageshack.us/img299/9092/ceagqzqii6yhcdcdd81gn4.jpg (http://imageshack.us)

dantes76
25-11-2006, 14:41
http://img215.imageshack.us/img215/4365/r600nyc6.jpg

prodotto nell'agosto del 2006, dico il chip

Skullcrusher
25-11-2006, 14:42
Magari col fatto che è a 80nm r600 consumerà qualcosina di meno di g80...vi immaginate che roba? :asd:

Sarebbe il colmo....ma dubito, visto che Ati tempo fa ha detto che R600 sarà il chip più potente mai prodotto, ma anche il più esoso energeticamente parlando.... :sofico:

Daytona
25-11-2006, 15:11
Si, effettivamente da quello che ho visto bisognerà rinunciare anche a tutti gli slot pci :asd: :asd:


link del dissi ?

:)

Daytona
25-11-2006, 15:20
http://www.iamxtreme.net/andre/R600_3.jpg[/QUOTE]


non c'è una foto del G80 scoperchiato ? :D

1100000110100000

LCol84
25-11-2006, 15:31
http://img299.imageshack.us/img299/9092/ceagqzqii6yhcdcdd81gn4.jpg (http://imageshack.us)

ame non sembra poi molto più grande di r580 poi... sec me i consumi di g80 e r600 saranno paragonabili, dato gli 80 nm e l'utilizzi di gddr4... magari ci sarà una differenza di 10-15watt in full load o giù di lì...

gianlu75xp
25-11-2006, 15:55
http://www.iamxtreme.net/andre/R600_3.jpg


non c'è una foto del G80 scoperchiato ? :D

1100000110100000[/QUOTE]

qui G80 a confronto con R580

http://techreport.com/reviews/2006q4/geforce-8800/gtx-vs-x1900-bare.jpg

Foglia Morta
25-11-2006, 16:03
G80 e R580 sono a 90nm , G80 484mm quadrati , R580 352mm quadrati. R600 è a 80nm e in base a quelle foto dovrebbe essere 430mm quadrati

Daytona
25-11-2006, 16:19
qui G80 a confronto con R580

http://techreport.com/reviews/2006q4/geforce-8800/gtx-vs-x1900-bare.jpg
]

Ma lo sai cosa si intende quando si dice "scoperchiato" ? ;)

si intende un g80 così :D

http://www.atris.it/Forum/attachment.php?attachmentid=1672&stc=1&d=1100277190

cabriolet ;)

gianlu75xp
25-11-2006, 16:24
Ma lo sai cosa si intende quando si dice "scoperchiato" ? ;)

si intende un g80 così :D

http://www.atris.it/Forum/attachment.php?attachmentid=1672&stc=1&d=1100277190

cabriolet ;)

si lo so bene ma non ho trovato di meglio ;)

ciao

nico88desmo
25-11-2006, 16:49
Sarebbe il colmo....ma dubito, visto che Ati tempo fa ha detto che R600 sarà il chip più potente mai prodotto, ma anche il più esoso energeticamente parlando.... :sofico:

questo lo diceva perchè non conosceva il G80! :D :D :D

LCol84
25-11-2006, 16:55
questo lo diceva perchè non conosceva il G80! :D :D :D

sec me sarà realmente più potente, ho questa sensazione... spero anche che sia così.
r600 > g80
g81> r600
r680> g81

e così via... E' l'ordine naturale delle cose che non deve essere disgregato :ciapet: :ciapet:

Dexther
25-11-2006, 16:58
sec me sarà realmente più potente, ho questa sensazione... spero anche che sia così.
r600 > g80
g81> r600
r680> g81

e così via... E' l'ordine naturale delle cose che non deve essere disgregato :ciapet: :ciapet:

concordo, del resto è da sempre così :boh:

nico88desmo
25-11-2006, 16:59
sec me sarà realmente più potente, ho questa sensazione... spero anche che sia così.
r600 > g80
g81> r600
r680> g81

e così via... E' l'ordine naturale delle cose che non deve essere disgregato :ciapet: :ciapet:

bè, spero anche io sia così.
secondo me g81 sarà gddr4 e bus 512 bit :cool: ..........
......ok, forse fantastico troppo :D :D

Skullcrusher
25-11-2006, 17:36
sec me sarà realmente più potente, ho questa sensazione... spero anche che sia così.
r600 > g80
g81> r600
r680> g81

e così via... E' l'ordine naturale delle cose che non deve essere disgregato :ciapet: :ciapet:

Direi che rientrerebbe nella normale legge del mercato delle vga...quasi sicuramente sarà proprio così... :)

DVD2005
25-11-2006, 17:46
Direi che rientrerebbe nella normale legge del mercato delle vga...quasi sicuramente sarà proprio così... :)


quoto :)

Athlon 64 3000+
25-11-2006, 18:05
interessanti le foto del possibile R600.
se fossero confermate le voci di 64 unità shader più complesse di G80 e con bus esterno a 512 bit con tanto di ring bus a 1024 bit sulla carta sarebbe un mostro.
Però bisognà vedere una volta presentato quali saranno le sue reali performance.
Ora come ora già la 8800GTX è veramente un mostro di velocità.

Skullcrusher
25-11-2006, 18:33
interessanti le foto del possibile R600.
se fossero confermate le voci di 64 unità shader più complesse di G80 e con bus esterno a 512 bit con tanto di ring bus a 1024 bit sulla carta sarebbe un mostro.
Però bisognà vedere una volta presentato quali saranno le sue reali performance.
Ora come ora già la 8800GTX è veramente un mostro di velocità.

Sì, G80 è un mostro, nulla da dire, in dx9 frantuma ogni record....però sono curioso di vedere sia G80 che R600 alle prese delle dx10....ormai è quello il punto :fagiano:

nico88desmo
25-11-2006, 18:44
Sì, G80 è un mostro, nulla da dire, in dx9 frantuma ogni record....però sono curioso di vedere sia G80 che R600 alle prese delle dx10....ormai è quello il punto :fagiano:

concordo pienamente. :O

MonsterMash
25-11-2006, 19:06
Scusate la domanda forse già posta migliaia di volte: ma quando scade l'NDA? E quindi quando si potrà sperare di vedere una scheda complet, dei dati certi, o magari addirittura qualche test online?

Grazie a tutti

Daytona
25-11-2006, 19:10
una settimana fà vidi una tabella che comparava la complessita delle dx7 ,

dx8 , dx9 e dx10 :eek:

bè il salto di complessità tra dx9 e dx10 era notevole... :cool:

...quando i giochi sfrutteranno a dovere dx10 il g80 e penso anche il r600 si prenderanno una bella botta!!!! :rolleyes:

...ma a quel tempo si parlerà già di g81 e r680 ...macchè meglio puntare su g90 o r700 :D

1100000110100000
:D

Dexther
25-11-2006, 21:50
dato che il mi sabato sera è ancora di là dal venire , vi propongo una piccola riflessione.

Ci avviciniamo sempre più al fotorealismo e di conseguenza per gestire textures e poligoni di tale complessità abbiamo bisogno di hardware sempre più potente. Adesso la mia riflessione è questa : secondo me il più è già stato fatto : basta guardarsi alle spalle ed ai giochi che abbiamo osannato per la loro grafica (heretic, hexen, ecc...). Ora , quando la metà sarà raggiunta, potranno mai i nostri portafogli prendere pace ?? :sofico: :sofico:

Se il ragionamento fila quando il fotorealismo sarà raggiunto l'hardware dovrebbe succedersi meno freneticamente..... :mc:

...........................Ok, vado a cucinare che è meglio :ops:.......

LCol84
25-11-2006, 21:53
dato che il mi sabato sera è ancora di là dal venire , vi propongo una piccola riflessione.

Ci avviciniamo sempre più al fotorealismo e di conseguenza per gestire textures e poligoni di tale complessità abbiamo bisogno di hardware sempre più potente. Adesso la mia riflessione è questa : secondo me il più è già stato fatto : basta guardarsi alle spalle ed ai giochi che abbiamo osannato per la loro grafica (heretic, hexen, ecc...). Ora , quando la metà sarà raggiunta, potranno mai i nostri portafogli prendere pace ?? :sofico: :sofico:

Se il ragionamento fila quando il fotorealismo sarà raggiunto l'hardware dovrebbe succedersi meno freneticamente..... :mc:

...........................Ok, vado a cucinare che è meglio :ops:.......

uhm, credo anche io che arriveremo ad un punto in cui i giochi saranno a livello di fotorealismo e quindi le schede video si daranno una calmata...Spero arrivi presto perchè mai come ora è diventato difficile star dietro al progresso delle schede video (specialmente che ora gestiranno praticamente tutto del gioco, fisica e calcoli geometrici che prima erano rilegati al procio)

Foglia Morta
25-11-2006, 23:13
http://uk.theinquirer.net/?article=35966

IT LOOKS LIKE there is a problem with HDCP on G80, or at least with NVIO. The problem is not so much a bug as something that the parts do not do that a $600 card probably should, dual link with HDCP on.

What this means is that if you turn on the HDCP DRM infection, IE play a Blu-Ray or HD-DVD, you are limited to single link resolutions. With a G80, you probably want to show a movie on a high rez monitor, but the lack of dual link will limit you to 720P or so, not nearly enough for my tastes.

To be fair, the G7x and R5xx cards both have this limitation, and it will not be a problem for Nvidia if the R600 does not support dual link + HDCP. Unfortunately for NV, R600 does do dual link + HDCP.

What it comes down to is if you want to watch a next gen movie at a decent rez, wait for R600 or possibly a G80 with an NVIO2 chip. Better yet, just skip the DRM infection all together and avoid the next gen formats. µ

LCol84
25-11-2006, 23:16
http://uk.theinquirer.net/?article=35966

spero proprio che non sia vero per coloro che hanno preso g80. Altrimenti sarebbe una sola colossale... tsk, non poter visualizzare 1080p su una scheda da600 e rotti euro...

Ma magari è un bufala... :asd:

Defragg
26-11-2006, 10:36
Ma magari è un bufala... :asd:
basta guardare la fonte :rolleyes:
:sofico:

LCol84
26-11-2006, 13:22
basta guardare la fonte :rolleyes:
:sofico:

Lo hai insinuato tu, non io... :ciapet:

Non mi permetterei mai di mettere in dubbio la serietà delle sue notizie

:sofico: :sofico: :sofico:

Alberello69
26-11-2006, 13:35
spero proprio che non sia vero per coloro che hanno preso g80. Altrimenti sarebbe una sola colossale... tsk, non poter visualizzare 1080p su una scheda da600 e rotti euro...

Ma magari è un bufala... :asd:
guarda che il problema non é visualizzare il 1080p, ma visualizzarlo su un monitor secondario mentre si lavora sul primario, infatti parla di dual link on...
non travisiamo le cose...

LCol84
26-11-2006, 13:38
guarda che il problema non é visualizzare il 1080p, ma visualizzarlo su un monitor secondario mentre si lavora sul primario, infatti parla di dual link on...
non travisiamo le cose...

Meno male allora... :D
Però se r600 effettivamente nn avesse questo problema :Perfido:

appleroof
26-11-2006, 14:19
guarda che il problema non é visualizzare il 1080p, ma visualizzarlo su un monitor secondario mentre si lavora sul primario, infatti parla di dual link on...
non travisiamo le cose...


:read:

e cmq aspetterei conferme da siti un pò più "seri" di inquirer...

Dylan BJ
27-11-2006, 18:59
cmq R600 dovrebbe vantare solo 16TMU anziche le 24 previste se nn erro.... :)

Kharonte85
27-11-2006, 19:05
http://it.theinquirer.net/2006/11/chiariti_i_problemi_della_g80.html

Cmq non ho capito perche' la notizia è stata postata qua...:boh:

Foglia Morta
27-11-2006, 19:45
cmq R600 dovrebbe vantare solo 16TMU anziche le 24 previste se nn erro.... :)
se lo dici tu allora è vero , dopo il quarto e le fonti più ridicole la credibilità è ben poca .Almeno postaci ciò che te lo fa pensare

Foglia Morta
27-11-2006, 19:45
http://it.theinquirer.net/2006/11/chiariti_i_problemi_della_g80.html

Cmq non ho capito perche' la notizia è stata postata qua...:boh:
parla anche di R600 se leggi attentamente

Kharonte85
27-11-2006, 20:06
parla anche di R600 se leggi attentamente
:D

Hal2001
27-11-2006, 21:28
La discussione è partita qui:
http://www.hwupgrade.it/forum/showthread.php?t=1326385&page=135&pp=20

:D

Purtroppo per Nvidia, però, la scheda ATI non soffre della stessa limitazione.

Hal2001
27-11-2006, 21:29
guarda che il problema non é visualizzare il 1080p, ma visualizzarlo su un monitor secondario mentre si lavora sul primario, infatti parla di dual link on...
non travisiamo le cose...

Cos'è il Dual Link? Perché non vi documentate invece di scrivere fesserie?

http://www.hwupgrade.it/forum/showpost.php?p=14872305&postcount=2696

LCol84
27-11-2006, 21:30
Dual link cos'è? Invece di scrivere fesserie documentatevi.


Uhm ce lo spieghi per benino così facciamo chiarezza su questa cosa del dual link e del 1080p?

:stordita:

breakz
27-11-2006, 21:59
aspettate gente sto r600....

l'ati potrebbe ingannarvi......

:)

appleroof
27-11-2006, 22:01
aspettate gente sto r600....

l'ati potrebbe ingannarvi......

:)

potresti spiegarti meglio? :D

gianlu75xp
27-11-2006, 23:07
Parliamo di niente, solo rumors.... e in questo lembo temporale d'incertezza si inseriscono le allusioni dei fanboys che vanno da sempre vantando l'indiscussa superiorità dell'una o dell'altra produttrice di schede video/cpu.... ad ognuno il suo divertimento :)

Solo i primi bench mostreranno se è valsa la pena prendere G80 subito o se varrà la pena aspettare R600 o prendere prima G80 e poi R600 e poi G81 e poi R680 e poi.... bla bla bla.

Ati e Nvidia si contendono vicendevolmente il primato e talvolta va all'una, salvo poi passare all'altra.... ora: si decide in base alle proprie esigenze, il proprio gusto e la propria tasca... ma andare sostenendo che l'una o l'altra casa sia indiscutibilmente e da sempre superiore è quanto di più inesatto (e ridicolo) possa esserci.

:ciapet:

fede27
27-11-2006, 23:48
Parliamo di niente, solo rumors.... e in questo lembo temporale d'incertezza si inseriscono le allusioni dei fanboys che vanno da sempre vantando l'indiscussa superiorità dell'una o dell'altra produttrice di schede video/cpu.... ad ognuno il suo divertimento :)

Solo i primi bench mostreranno se è valsa la pena prendere G80 subito o se varrà la pena aspettare R600 o prendere prima G80 e poi R600 e poi G81 e poi R680 e poi.... bla bla bla.

Ati e Nvidia si contendono vicendevolmente il primato e talvolta va all'una, salvo poi passare all'altra.... ora: si decide in base alle proprie esigenze, il proprio gusto e la propria tasca... ma andare sostenendo che l'una o l'altra casa sia indiscutibilmente e da sempre superiore è quanto di più inesatto (e ridicolo) possa esserci.

:ciapet:

Quote, fratello :O

Rubex 79
28-11-2006, 00:15
:D Insomma la momento misa che mi conviene tenere sta 1900xtx che ha 2 settimane in mano mia, piuttosto che venderla e aspettare il l'R600 con una 1600xt................. sto aspettando con ansia questa VGA dal mese di aprile......................... R600 vieni!!!!!!!!!!!!!! :D :D

Dexther
28-11-2006, 00:44
Parliamo di niente, solo rumors.... e in questo lembo temporale d'incertezza si inseriscono le allusioni dei fanboys che vanno da sempre vantando l'indiscussa superiorità dell'una o dell'altra produttrice di schede video/cpu.... ad ognuno il suo divertimento :)

Solo i primi bench mostreranno se è valsa la pena prendere G80 subito o se varrà la pena aspettare R600 o prendere prima G80 e poi R600 e poi G81 e poi R680 e poi.... bla bla bla.

Ati e Nvidia si contendono vicendevolmente il primato e talvolta va all'una, salvo poi passare all'altra.... ora: si decide in base alle proprie esigenze, il proprio gusto e la propria tasca... ma andare sostenendo che l'una o l'altra casa sia indiscutibilmente e da sempre superiore è quanto di più inesatto (e ridicolo) possa esserci.

:ciapet:


:ave:

Skullcrusher
28-11-2006, 09:11
Parliamo di niente, solo rumors.... e in questo lembo temporale d'incertezza si inseriscono le allusioni dei fanboys che vanno da sempre vantando l'indiscussa superiorità dell'una o dell'altra produttrice di schede video/cpu.... ad ognuno il suo divertimento :)

Solo i primi bench mostreranno se è valsa la pena prendere G80 subito o se varrà la pena aspettare R600 o prendere prima G80 e poi R600 e poi G81 e poi R680 e poi.... bla bla bla.

Ati e Nvidia si contendono vicendevolmente il primato e talvolta va all'una, salvo poi passare all'altra.... ora: si decide in base alle proprie esigenze, il proprio gusto e la propria tasca... ma andare sostenendo che l'una o l'altra casa sia indiscutibilmente e da sempre superiore è quanto di più inesatto (e ridicolo) possa esserci.

:ciapet:

Quoto in tutto e per tutto :D

Foglia Morta
28-11-2006, 11:29
http://www.theinquirer.net/default.aspx?article=35995

R600 IS SCHEDULED for debut in January and details of the upcoming graphics chip are slowly slipping out of the company.

The 500+ GFLOPS-producing monster chip is manufactured on a 80nm manufacturing process, which allows the chip maker to squeeze more transistors on the silicon.

While Nvidia was told by TSMC that the highest margin for 90nm process is 700 million, Nvidia pulled a wizard out of the hat and placed TMDS and HDCP logic on a separate chip. Sadly, the wizard also managed to break the NVIO1 chip, so you can forget about running 1080p video on your freshly-bought G80-based product.

ATI on the other hand, took the risky road, pulled 80nm manufacturing process from the drawing board onto silicon and produced a 720-million transistor monster that is currently seeking its final clock speed.

Regardless of the approach, in the end both products will be more similar than the companies are willing to admit. µ

Athlon 64 3000+
28-11-2006, 11:44
se fosse vero che avrà 720 milioni di transistor a 80 nm sarà incredibile.
Vedendo come consumava R580 con 384 milioni di transistor pensavo che con processo produttivo a 90 non si sarebbe andato oltre i 500 milioni invece G80 ne integra 681 milioni.
anche se a 80 nm se fossero confermati i 720 milioni di transistor di R600 con(con anche i suoi 420 mm2 che non sono pochi)sarà incredibile.
Comunque The inquirer conoscendo la sua fama potrebbe avere sparato una grossa cretinata.

fukka75
28-11-2006, 14:45
Uhm ce lo spieghi per benino così facciamo chiarezza su questa cosa del dual link e del 1080p?

:stordita:
Da wikipedia
Example display modes (single link):
HDTV (1920 × 1080) @ 60 Hz with 5% LCD blanking (131 MHz)
UXGA (1600 × 1200) @ 60 Hz with GTF blanking (161 MHz)
WUXGA (1920 × 1200) @ 60 Hz (154 MHz)
SXGA (1280 × 1024) @ 85 Hz with GTF blanking (159 MHz)
Example display modes (dual link):
QXGA (2048 × 1536) @ 75 Hz with GTF blanking (2×170 MHz)
HDTV (1920 × 1080) @ 85 Hz with GTF blanking (2×126 MHz)
WQXGA (2560 × 1600)@ 60 Hz with GTF blanking (2x174 MHz) (30" LCD Dell, Apple, Samsung, HP, Quinux)
WQUXGA (3840 × 2400) @ 33 Hz with GTF blanking (2x159 MHz)
Quello che non mi speigo è perché nell'articolo di the inquirer citato sopra dicono che il single link è limitato a 1280X720 (720p), quando ciò non è vero :confused:

Simon82
28-11-2006, 15:23
Processo produttivo 80u e un die spaventosamente enorme. Non avrebbero potuto farlo a 90u, imho gia' stiamo superando quello che l'attuale tecnologia riesce a contenere. Un die simile in un circuito integrato e' davvero troppo grosso, ammesso che comunque non comporta nulla se non mostruose soluzioni di raffreddamento. Mi auguro che ci saranno per entrambe le societa', politiche gia' viste con la 7900 e con i processori per risparmiare energie non solo grazie ai die shrink bensi' a ristrutturazioni architetturali e ottimizzazioni tali a ridimensionare quello che sembra essere diventato un processo inarrestabile di crescita di transistor.

Window Vista
28-11-2006, 15:35
IL DEBUTTO della R600 di ATI è previsto per gennaio e cominciano lentamente ad arrivare i dettagli sulla nuova scheda grafica al vertice della gamma.

Il mostruoso chip in grado di generare oltre 500 Gigaflops e realizzato con un processo produttivo a 80 nm, che consente di concentrare un numero più elevato di transistor sul silicio.

A Nvidia TSMC ha fatto sapere che il limite massimo per la tecnologia a 90 nm è di 700 milioni di componenti, tanto che la società ha dovuto piazzare la logica dei sistemi TDMS e HDCP su un componente separato. Purtroppo questa soluzione ha anche costretto a limitare il chip NVIO1, tanto che le nuovissime schede G80 non possono far girare un video a 1080p.

D'altro canto ATI ha preso una strada più rischiosa, spingendo per la produzione a 80 nm passando direttamente dal disegno al silicio e realizzando così un mostro da 720 milioni di transistor di cui si sta ancora definendo la velocità di clock finale.

Indipendentemente dall'approccio, alla fine entrambi i prodotti saranno molto più simili di quanto le aziende interessate vogliano ammettere.

LINK:http://it.theinquirer.net/2006/11/l...nsistor_de.html

Dylan BJ
28-11-2006, 19:10
se lo dici tu allora è vero , dopo il quarto e le fonti più ridicole la credibilità è ben poca .Almeno postaci ciò che te lo fa pensare

non essere sempre cosi' spudoratamente pro-ati... :p
quando c'erano i rumors su G80 e R600 era un sogno erotico e poco + ti incaxxavi, ovvio ke ora ke pare ke amd spari fuori in tempo x vista (il s.o. ritardatario) R600 sei super euforico.....
queste cose lasciale ai dodicenni e nn criticare sempre tutti x i post nn all'altezza dei tuoi.... :p

appleroof
28-11-2006, 19:17
Parliamo di niente, solo rumors.... e in questo lembo temporale d'incertezza si inseriscono le allusioni dei fanboys che vanno da sempre vantando l'indiscussa superiorità dell'una o dell'altra produttrice di schede video/cpu.... ad ognuno il suo divertimento :)

Solo i primi bench mostreranno se è valsa la pena prendere G80 subito o se varrà la pena aspettare R600 o prendere prima G80 e poi R600 e poi G81 e poi R680 e poi.... bla bla bla.

Ati e Nvidia si contendono vicendevolmente il primato e talvolta va all'una, salvo poi passare all'altra.... ora: si decide in base alle proprie esigenze, il proprio gusto e la propria tasca... ma andare sostenendo che l'una o l'altra casa sia indiscutibilmente e da sempre superiore è quanto di più inesatto (e ridicolo) possa esserci.

:ciapet:

mi aggiungo e quoto anch'io! ;)

halduemilauno
28-11-2006, 19:21
non essere sempre cosi' spudoratamente pro-ati... :p
quando c'erano i rumors su G80 e R600 era un sogno erotico e poco + ti incaxxavi, ovvio ke ora ke pare ke amd spari fuori in tempo x vista (il s.o. ritardatario) R600 sei super euforico.....
queste cose lasciale ai dodicenni e nn criticare sempre tutti x i post nn all'altezza dei tuoi.... :p

avete notato come i soliti noti che prima inveivano contro The Inquirer ora come lo citano a piè pari.
strano molto strano o forse per niente.
;)

appleroof
28-11-2006, 19:24
avete notato come i soliti noti che prima inveivano contro The Inquirer ora come lo citano a piè pari.
strano molto strano o forse per niente.
;)

:asd: :asd:

aspetto di vedere che risponderanno quei soliti noti...sento odore di flame...

T3d
28-11-2006, 19:26
caspita ci abbiamo messo ben 23 pagine per scatenare il primo mini flame... facciamo passi avanti, complimenti a tutti :cool:


:(

Dylan BJ
28-11-2006, 19:28
ahahahah!!! grazie ragazzi.. grazie a tutti!! vediamo se il pesce abbocca all'amo.... :p
:D

Foglia Morta
28-11-2006, 19:29
non essere sempre cosi' spudoratamente pro-ati... :p
quando c'erano i rumors su G80 e R600 era un sogno erotico e poco + ti incaxxavi, ovvio ke ora ke pare ke amd spari fuori in tempo x vista (il s.o. ritardatario) R600 sei super euforico.....
queste cose lasciale ai dodicenni e nn criticare sempre tutti x i post nn all'altezza dei tuoi.... :p
Cioè chiedere la fonte di info vuol dire essere pro-ati ? Se non sai cosa dire taci e ci fai più bella figura, e infatti non hai risposto , parli tanto sparlare anche quando non si ha un motivo per farlo. L'euforismo ce lo stai mettendo solo tu. Ogni volta che parli di R600 lo fai per dire che "è meglio che non esca mai" " arriverà ad Aprile" , traduzioni strampalate. Non hai proprio il senso del pudore :rolleyes:

Foglia Morta
28-11-2006, 19:31
avete notato come i soliti noti che prima inveivano contro The Inquirer ora come lo citano a piè pari.
strano molto strano o forse per niente.
;)
ho sempre citato theinq e vr-zone , in qualsiasi situazione e lo sai. anche quando si diceva "long and hot" e si parlava di pcb da 30 cm

così come ero stato io a postare le prime foto delle 8800 , vedi te

Dylan BJ
28-11-2006, 19:34
Cioè chiedere la fonte di info vuol dire essere pro-ati ? Se non sai cosa dire taci e ci fai più bella figura, e infatti non hai risposto , parli tanto sparlare anche quando non si ha un motivo per farlo. L'euforismo ce lo stai mettendo solo tu. Ogni volta che parli di R600 lo fai per dire che "è meglio che non esca mai" " arriverà ad Aprile" , traduzioni strampalate. Non hai proprio il senso del pudore :rolleyes:
secondo me hai un'ulcera in fase cronica per essere sempre cosi'......
che ti ha fatto sto forum? se 6 di cattivo umore o se nn dovesse essere all'altezza questo thread non freqentuarlo..... avrai senz'altro di meglio da fare... uno come te poi... :p

Foglia Morta
28-11-2006, 19:38
secondo me hai un'ulcera in fase cronica per essere sempre cosi'......
che ti ha fatto sto forum? se 6 di cattivo umore o se nn dovesse essere all'altezza questo thread non freqentuarlo..... avrai senz'altro di meglio da fare... uno come te poi... :p
Si parla di R600 , se vuoi collaborare posta le info che trovi , fino ad ora non l'hai mai fatto.

Dylan BJ
28-11-2006, 19:40
Si parla di R600 , se vuoi collaborare posta le info che trovi , fino ad ora non l'hai mai fatto.
perche' fino a ieri ero preso da G80.... con tutti i pro del caso visto ke ho venduto la vekkia 7950GX2 e ora nel case e' finita una 8800GTX :p
su G80 il mio piccolo contributo penso di averlo cmq dato.. nulla di + :)

Foglia Morta
28-11-2006, 19:44
perche' fino a ieri ero preso da G80.... con tutti i pro del caso visto ke ho venduto la vekkia 7950GX2 e ora nel case e' finita una 8800GTX :p
su G80 il mio piccolo contributo penso di averlo cmq dato.. nulla di + :)
ottimo, ora potrai tradurre i rumours di r600 :asd:

DjLode
28-11-2006, 20:49
avete notato come i soliti noti che prima inveivano contro The Inquirer ora come lo citano a piè pari.
strano molto strano o forse per niente.
;)

Sempre parlato male di The Inquirer e sempre lo farò. Però c'è da ammettere che se non ci fosse... chi risolleverebbe le giornate di tanti fan boy?

LCol84
28-11-2006, 20:50
Sempre parlato male di The Inquirer e sempre lo farò. Però c'è da ammettere che se non ci fosse... chi risolleverebbe le giornate di tanti fan boy?

Come non quotarti... :asd:

Dylan BJ
28-11-2006, 20:52
ottimo, ora potrai tradurre i rumours di r600 :asd:
non preoccuparti.... :D
sei tu il primo della classe e nessuno avrebbe la tua conoscenza e immensa cultura x insidiarti il posto... :)
mi kiedo come mai nn ti abbiano ancora notato qelli di HW... :p

Alberello69
28-11-2006, 20:55
Cavolo ma sempre a parlare!
non mi fate concentrare, ho ingrandito la foto e sto contando i transistor!
:muro:

Foglia Morta
28-11-2006, 20:56
Cavolo ma sempre a parlare!
non mi fate concentrare, ho ingrandito la foto e sto contando i transistor!
:muro:
2140... li hanno già contati utenti stranieri , solo che parlano inglese altrimenti c' è chi te l'avrebbe già detto tempo fa
http://img6.picsplace.to/img6/23/R600_2_000.jpg

Alberello69
28-11-2006, 21:01
2140... li hanno già contati utenti stranieri , solo che parlano inglese altrimenti c' è chi te l'avrebbe già detto tempo fa
no ma che hai capito! quelli del core!!

DjLode
28-11-2006, 21:01
2140... li hanno già contati utenti stranieri , solo che parlano inglese altrimenti c' è chi te l'avrebbe già detto tempo fa

Quelli sono i piedini, lui sta contando i transistor :)

Foglia Morta
28-11-2006, 21:02
no ma che hai capito! quelli del core!!
ho aggiornato il post prima, guarda se stiamo parlando della stessa cosa

Alberello69
28-11-2006, 21:04
:stordita:
non avete capito la battuta...

Foglia Morta
28-11-2006, 21:04
Quelli sono i piedini, lui sta contando i transistor :)
aahhhhh era una battuta :D

Foglia Morta
28-11-2006, 21:07
:stordita:
non avete capito la battuta...
sorry. Colpa di quegli altri cabarettisti... hanno montato una sceneggiata tale che ti hanno sminuito :D

Defragg
28-11-2006, 21:07
aahhhhh era una battuta :D
:rolleyes: :D

appleroof
28-11-2006, 21:13
Però c'è da ammettere che se non ci fosse... chi risolleverebbe le giornate di tanti fan boy?


L'hai detto..........





;)

Kharonte85
28-11-2006, 21:27
mi kiedo come mai nn ti abbiano ancora notato qelli di HW... :p
Forse perche' bisogna essere anche simpatici? :D

x Foglia Morta ovviamente sto scherzando...mi fai sganasciare... :sofico:

nico88desmo
28-11-2006, 22:04
2140 transistor....neanche tanti tutto sommato....
altro che 720M !!!! :sofico: :sofico:

:D :D :D :D

pandyno
28-11-2006, 23:39
Sempre parlato male di The Inquirer e sempre lo farò. Però c'è da ammettere che se non ci fosse... chi risolleverebbe le giornate di tanti fan boy?


Mai letto The inquirer è grave? :O

DjLode
28-11-2006, 23:43
Mai letto The inquirer è grave? :O

Bhè come patologia è abbastanza grave. Non sei curioso di leggere una cosa un giorno e l'esatto contrario il giorno dopo?

Alberello69
28-11-2006, 23:47
Bhè come patologia è abbastanza grave. Non sei curioso di leggere una cosa un giorno e l'esatto contrario il giorno dopo?
be non esagerare... gli esempi si fanno con i link alla mano, ormai tutti parlano per sentito dire...

Dylan BJ
29-11-2006, 01:32
Forse perche' bisogna essere anche simpatici? :D

:D :D :D

wiltord
29-11-2006, 01:33
Bhè come patologia è abbastanza grave. Non sei curioso di leggere una cosa un giorno e l'esatto contrario il giorno dopo?

chi non lo sarebbe? :D

DjLode
29-11-2006, 09:47
be non esagerare... gli esempi si fanno con i link alla mano, ormai tutti parlano per sentito dire...

http://uk.theinquirer.net/?article=35614
http://uk.theinquirer.net/?article=35708

Per esempio. E' lunga più della 8800. No, è più corta in tutte le sue varianti.

Ma come non citare la R520 a 32/24/16 pipelines e via discorrendo?
Non parlo mai per sentito dire, mi dispiace. E sopratutto su certe cose ho buona memoria. Poi se tu o altri vedete The Inquirer come fonte di notizie interessanti, non è mia intenzione farvi cambiare idea. Ma da qui a dire che The Inquirer sia un sito "serio" che fa "notizia" equivale a dire che Novella 3000 sia più affidabile del Tg1.

pandyno
29-11-2006, 11:07
Bhè come patologia è abbastanza grave. Non sei curioso di leggere una cosa un giorno e l'esatto contrario il giorno dopo?

ah beh, per questo c' è il governo che ci sollazza beatamente :D

Alberello69
29-11-2006, 11:45
http://uk.theinquirer.net/?article=35614
http://uk.theinquirer.net/?article=35708

Per esempio. E' lunga più della 8800. No, è più corta in tutte le sue varianti.

Ma come non citare la R520 a 32/24/16 pipelines e via discorrendo?
Non parlo mai per sentito dire, mi dispiace. E sopratutto su certe cose ho buona memoria. Poi se tu o altri vedete The Inquirer come fonte di notizie interessanti, non è mia intenzione farvi cambiare idea. Ma da qui a dire che The Inquirer sia un sito "serio" che fa "notizia" equivale a dire che Novella 3000 sia più affidabile del Tg1.
non la ritengo una fonte affidabile, ma dato che ogni volta che ho chiesto dei link nessuno sapeva darmeli...

Alberello69
29-11-2006, 12:44
scusa, qui dice che é piú lunga, ma non trovo dove dice che é piu' corta in tutte le sue varianti...

Daytona
29-11-2006, 14:36
Si, effettivamente da quello che ho visto bisognerà rinunciare anche a tutti gli slot pci :asd: :asd:



Cosè che avresti visto ?! :mbe:

link ? :asd:

breakz
29-11-2006, 15:28
forse la scheda???..;)

LCol84
29-11-2006, 16:12
forse la scheda???..;)

Dove?? Quando???Come??? Perchè???? FATELA VEDERE ANCHE A MEEEEEEEEEEEEEEEEEEEEEEEEEEEE :D :ciapet: :oink: :stordita: :Prrr:

appleroof
29-11-2006, 16:42
Cosè che avresti visto ?! :mbe:

link ? :asd:


ah già mi avevi già chiesto questa cosa no?

in realtà non l'ho "vista" (ho scritto velocemente quel post ma capisco la "voglia" di sapere tuttociò che è possibile :asd: ) ma ho letto da più parti che il dissi dovrebbe essere mostruoso, lungo quanto tutto la scheda (un pò come la 8800gtx della EVGA ad esempio) e con 4 heat pipe che lo renderebbero più spessa di qualsiasi altra scheda.

Saranno i soliti rumors? vedremo ;)

DVD2005
29-11-2006, 21:56
ah già mi avevi già chiesto questa cosa no?

in realtà non l'ho "vista" (ho scritto velocemente quel post ma capisco la "voglia" di sapere tuttociò che è possibile :asd: ) ma ho letto da più parti che il dissi dovrebbe essere mostruoso, lungo quanto tutto la scheda (un pò come la 8800gtx della EVGA ad esempio) e con 4 heat pipe che lo renderebbero più spessa di qualsiasi altra scheda.

Saranno i soliti rumors? vedremo ;)


e io che speravo fosse piu' piccola della 8800GTX.....

Dexther
29-11-2006, 21:57
e io che speravo fosse piu' piccola della 8800GTX.....

anche io :(

però ancora non è detto :boh:

appleroof
29-11-2006, 22:57
e io che speravo fosse piu' piccola della 8800GTX.....


esatto non è detto, finora assistiamo al solito balletto delle cifre (in tutti i sensi) e fino alla fine avremo di che divertirci ;)

alcune settimane fa si diceva che fosse lunga 30cm... :eek: :asd: :asd:

LCol84
29-11-2006, 23:26
esatto non è detto, finora assistiamo al solito balletto delle cifre (in tutti i sensi) e fino alla fine avremo di che divertirci ;)

alcune settimane fa si diceva che fosse lunga 30cm... :eek: :asd: :asd:


ora si dice sia lunga meno della 8800gtx o sbaglio? No perchè lo spazio che avrò disponibile nel case sarà si e no 30cm in lunghezza... ergo se me la fanno che non ci sta vado dalla ati e gli spacco gli uffici :ciapet:

Dylan BJ
30-11-2006, 00:11
S3 la cacciera' in quel posto ad ati e nvidia con una supervga!!!!! fonte the inq :D :D :D

LCol84
30-11-2006, 00:36
S3 la cacciera' in quel posto ad ati e nvidia con una supervga!!!!! fonte the inq :D :D :D


Spero proprio sia così... :asd:
Un terzo competitor farebbe veramente comodo. Ma è il modello multicore per caso?

Avevo letto qualcosa anche io in merito se non ricordo male...

Dylan BJ
30-11-2006, 03:28
Spero proprio sia così... :asd:
Un terzo competitor farebbe veramente comodo. Ma è il modello multicore per caso?

Avevo letto qualcosa anche io in merito se non ricordo male...
pare di si... son gia' uscite skedozze entrylevel senza grosse pretese.... vedrete quando S3 umiliera' ati e nvidia in dx11!!!!! (fonte novella the inquirer 3000)
:p :D

Simon82
30-11-2006, 08:48
S3 la cacciera' in quel posto ad ati e nvidia con una supervga!!!!! fonte the inq :D :D :D
Si si. Un po' come ha fatto con l'S3 Trio3D, il Savage 3D, il Savage 4, il Savage 2000... :sofico:

Nota di merito poi per le capacita' di sviluppo dei drivers.. :D

Skullcrusher
30-11-2006, 09:06
pare di si... son gia' uscite skedozze entrylevel senza grosse pretese.... vedrete quando S3 umiliera' ati e nvidia in dx11!!!!! (fonte novella the inquirer 3000)
:p :D

:rotfl:

Kharonte85
30-11-2006, 10:52
S3 la cacciera' in quel posto ad ati e nvidia con una supervga!!!!! fonte the inq :D :D :D
:asd: