View Full Version : [Thread Ufficiale] Aspettando Larrabee
http://www.tomshw.it/news.php?newsid=8851
Interessante e soprattutto come si poteva immaginare dopo la fusione di ATI e AMD. ;)
quindi avremo un terzo concorrente nel mercato delle gpu,era nell'aria da molto che se parla..
secondo mè sia amd che intel avranno un vantaggio su nvidia nello sviluppo di cpu/gpu rispetto a nvidia,secondo quest'ultima si dovrebbe alleare con qualcuna di essa...
riporto un'articolo riguardante un'ipotetico ingresso di nvidia nel mercato delle cpu:
Da tempo si vocifera circa un possibile ingresso di nVdia sul mercato delle cpu; l'analisi del nuovo processore grafico che equipaggia le schede grafiche GeForce 8800 sembrano confermare, seppure indirettamente, la cosa.
G80 infatti, pur non essendo direttamente compatibile x86 e troppo ingrombrante e caldo per essere una cpu vera e con adeguate prosettive di mercato, ne possiede tutte le caratteristiche e potrebbe anche essere in grado di gestire istruzioni x86, grazie alla sua super-programmabilità.
Non è un mistero che anche Amd-Ati stia lavorando ad un progetto di cpu-gpu combinata (Fusion), sull'onda di realizzazioni del passato, che però al tempo hanno avuto scarso successo (Media GX di Cyrix) o sono state abortite (Timna di Intel); il mercato adesso è profondamente cambiato e la tecnologia consente l'integrazione in un unico die di più core, anche diversi tra loro (questo almeno nelle probabili intenzioni dei chipmaker).
In questo contesto pertanto, potrebbe rientrare un'ipotetica evoluzione del processore grafico che rappresenta l'attuale massima espressione tecnologica di nVidia, ridotta nelle dimensioni ed emissione di calore, dal momento che, secondo questi rumours, all'azienda californiana mancherebbe solo più una licenza x86 per scendere nell'arena dominata da Amd ed Intel.
Foglia Morta
23-01-2007, 14:41
:old: :D
http://www.hwupgrade.it/forum/showthread.php?t=1388061
:read:
Foglia Morta
23-01-2007, 14:43
quindi avremo un terzo concorrente nel mercato delle gpu,era nell'aria da molto che se parla..
secondo mè sia amd che intel avranno un vantaggio su nvidia nello sviluppo di cpu/gpu rispetto a nvidia,secondo quest'ultima si dovrebbe alleare con qualcuna di essa...
anche secondo me nvidia si inventerà qualcosa, con gli oem amd e intel avrebbero uno strapotere e con il passare del tempo anche nel resto del mercato. imho a nvidia conviene espandersi e secondo me hanno in cantiere qualcosa per farlo
riporto un'articolo riguardante un'ipotetico ingresso di nvidia nel mercato delle cpu:
Da tempo si vocifera circa un possibile ingresso di nVdia sul mercato delle cpu; l'analisi del nuovo processore grafico che equipaggia le schede grafiche GeForce 8800 sembrano confermare, seppure indirettamente, la cosa.
G80 infatti, pur non essendo direttamente compatibile x86 e troppo ingrombrante e caldo per essere una cpu vera e con adeguate prosettive di mercato, ne possiede tutte le caratteristiche e potrebbe anche essere in grado di gestire istruzioni x86, grazie alla sua super-programmabilità.
Non è un mistero che anche Amd-Ati stia lavorando ad un progetto di cpu-gpu combinata (Fusion), sull'onda di realizzazioni del passato, che però al tempo hanno avuto scarso successo (Media GX di Cyrix) o sono state abortite (Timna di Intel); il mercato adesso è profondamente cambiato e la tecnologia consente l'integrazione in un unico die di più core, anche diversi tra loro (questo almeno nelle probabili intenzioni dei chipmaker).
In questo contesto pertanto, potrebbe rientrare un'ipotetica evoluzione del processore grafico che rappresenta l'attuale massima espressione tecnologica di nVidia, ridotta nelle dimensioni ed emissione di calore, dal momento che, secondo questi rumours, all'azienda californiana mancherebbe solo più una licenza x86 per scendere nell'arena dominata da Amd ed Intel.
Circa le coerenze del G80 rispetto ad una attuale CPU ricordo pero' che ci sono altri aspetti da considerare. Il fatto stesso che le attuali GPU stanno migrando verso una ottica piu' general purpose non significa pero' che il futuro le accomuni allo stesso modo proprio per lo scopo origine per cui sono nate quest'ultime e cioe' per il rendering tridimensionale che per natura e' efficiente con architetture comunque rigide.
Riguardo l'ingresso di Nvidia nel mondo CPU direi che e' un'altra questione. Intel a differenza di Nvidia credo si sia sempre tenuta in serbo la possibilita' di un suo reingresso nel mondo delle GPU discrete dopo l' I740 che dal canto suo aveva dimostrato di essere ottimo sotto diversi punti di vista.
L'esperienza in campo chipset e relativa grafica integrata rendera' indubbiamente molto ad una azienda che puo' giocare su capitali molto alti. ;)
:old: :D
http://www.hwupgrade.it/forum/showthread.php?t=1388061
:read:
Opss, proprio mi era sfuggito sul serio. ;)
Se vuoi chiudo questo, no problem.
Foglia Morta
23-01-2007, 14:52
Opss, proprio mi era sfuggito sul serio. ;)
Se vuoi chiudo questo, no problem.
continuaimo qui, era solo per dimostrare la mia velocità :D
continuaimo qui, era solo per dimostrare la mia velocità :D
E' che ieri ho lavorato di brutto e non ho avuto modo di aggiornarmi in real time su cio' che succede. :stordita:
yossarian
23-01-2007, 15:36
Intel ha tuttte le potenzialità, sia a livello economico che di know how, per diventare il terzo incomodo
Intel ha tuttte le potenzialità, sia a livello economico che di know how, per diventare il terzo incomodo
E di immagine visto che cosi' facendo entra automaticamente (a mo' di kamikaze ma visti i capitali non direi proprio) nel campo in cui AMD e' entrata piu' facilmente comprando "un pacchetto completo" a.k.a. ATi Technologies. :p
picard88
23-01-2007, 18:15
LOL visto che adesso ci sono i core2 per desktop le chiameranno pentium :D :D
appleroof
23-01-2007, 18:25
http://www.tomshw.it/news.php?newsid=8851
Interessante e soprattutto come si poteva immaginare dopo la fusione di ATI e AMD. ;)
mi sembra una normale reazione alla incorporazione ati da parte di amd...ne vedremo davvero delle belle nei prossimi anni ;)
Foglia Morta
29-01-2007, 11:44
http://uk.theinquirer.net/?article=37249
WE ASKED SOME Intel lads about its plans to make discrete graphics cards. Josh Newman, chipset product marketing director, sent us a few answers.
INQ: Does Intel have any plans for GPU on CPU concept?
Intel: We continue to work relentlessly with the platform ecosystem to define, develop and deliver platform and technology enhancements that delight our customers. We regularly update the community on advancements in these areas at Intel Developer Forums. Intel hasn’t announced any products in these areas at this time.
INQ: Does Intel plan to make discrete graphic products?
Intel: We continue to work relentlessly with the platform ecosystem to define, develop and deliver platform and technology enhancements that delight our customers. We regularly update the community on advancements in these areas at Intel Developer Forums. Intel hasn’t announced any products in these areas at this time.
Well, it's better than "no comment". Just. µ
potevano anche non pubblicarla sta notiziona :rolleyes:
http://uk.theinquirer.net/?article=37249
potevano anche non pubblicarla sta notiziona :rolleyes:
The inquirer non sa proprio piu' cosa pubblicare. Poteva fare un'intervista ad Elvis morto tanto che c'era. :D
Ma le risposte non sono identiche? :mbe: :confused:
Hanno fatto copia/incolla? :D
Foglia Morta
07-02-2007, 16:44
http://www.vr-zone.com/?i=4605
Intel's Visual Computing Group (VCG) gave an interesting overview of the discrete graphics plans this week. There seems to be a few interesting developments down the pipeline that could prove quite a challenge to NVIDIA and AMD in 2 years time. As already stated on their website, the group is focused on developing advanced products based on a many-core architecture targeting high-end client platforms initially. Their first flagship product for games and graphics intensive applications is likely to happen in late 2008-09 timeframe and the GPU is based on multi-core architecture. We heard there could be as many as 16 graphics cores packed into a single die.
The process technology we speculate for such product is probably at 32nm judging from the timeframe. Intel clearly has the advantage of their advanced process technology since they are always at least one node ahead of their competitors and they are good in tweaking for better yield. Intel is likely use back their CPU naming convention on GPU so you could probably guess that the highest end could be called Extreme Edition and there should be mainstream and value editions. The performance? How about 16x performance of any fastest graphics card out there now [referring to G80] as claimed. Anyway it is hard to speculate who will lead by then as it will be DX10.1/11 era with NVIDIA G9x and ATi R7xx around.
Digg it if you like it and share your thoughts here
mi sembrano più i tempi per R800 / G100
Foglia Morta
07-02-2007, 18:38
http://uk.theinquirer.net/?article=37345
JON PEDDIE from Peddie Research thinks Intel will find itself having to make discrete graphic chips.
You can check what Intel says about the about the matter here.
Peddie thinks that Intel is not the kind of company that is really comfortable with partners but it would like a slice of the lucrative market for graphics cards. The firm is the leading graphics supplier in terms of volume, through the integrated motherboards it produces.
But the GPU is an expensive component and AMD is now getting the portion of that pie. So Intel will want some too.
Peddie thinks Intel will do it and that, as a matter a fact, it is doing it as we speak. The GPU is a tricky business and it remains to be seen how good job Intel will do bringing its GPU. It is a tricky business as you have to get the right specs and the right time at the right price. Intel folks are working their spreadsheets overtime trying to come up with the right model for them to use, Peddie suggested.
But it's a big ask. AMD/ATI and Nvidia have over 1,000 engineers each who have been working on GPU design for over a decade and it may be extremely difficult for Intel to catch up. µ
Foglia Morta
09-02-2007, 14:51
http://uk.theinquirer.net/?article=37548
WE FIRST TOLD you about Intel's GPU plans last spring, and the name, Larrabee last summer. That brings up the question of just what the heck it is, other than the utter death of Nvidia.
Intel decided to talk about Larrabee last week to VR-Zone (nice catch guys), so I guess that makes it open season on info. VRZ got it almost dead on, the target is 16 cores in the early 2009 time frame, but that is not a fixed number. Due to the architecture, that can go down in an ATI x900/x600/x300 fashion, maybe 16/8/4 cores respectively, but technically speaking it can also go up by quite a bit.
What are those cores? They are not GPUs, they are x86 'mini-cores', basically small dumb in order cores with a staggeringly short pipeline. They also have four threads per core, so a total of 64 threads per "CGPU". To make this work as a GPU, you need instructions, vector instructions, so there is a hugely wide vector unit strapped on to it. The instruction set, an x86 extension for those paying attention, will have a lot of the functionality of a GPU.
What you end up with is a ton of threads running a super-wide vector unit with the controls in x86. You use the same tools to program the GPU as you do the CPU, using the same mnemonics, and the same everything. It also makes things a snap to use the GPU as an extension to the main CPU.
Rather than making the traditional 3D pipeline of putting points in space, connecting them, painting the resultant triangles, and then twiddling them simply faster, Intel is throwing that out the window. Instead you get the tools to do things any way you want, if you can build a better mousetrap, you are more than welcome to do so. Intel will support you there.
Those are the cores, but how are they connected? That one is easy, a hugely wide bi-directional ring bus. Think four not three digits of bit width and Tbps not Gbps of bandwidth. It should be 'enough' for the average user, if you need more, well now is the time to contact your friendly Intel exec and ask.
As you can see, the architecture is stupidly scalable, if you want more CPUs, just plop them on. If you want less, delete nodes, not a big deal. That is why we said 16 but it could change on more or less on a whim. The biggest problem is bandwidth usage as a limiter to scalability. 20 and 24 core variants seem quite doable.
The current chip is 65nm and was set for first silicon in late 07 last we heard, but this was undoubtedly delayed when the project was moved from late 08 to 09. This info is for a test chip, if you see a production part, it will almost assuredly be on 45 nanometres. The one that is being worked on now is a test chip, but if it works out spectacularly, it could be made into a production piece. What would have been a hot and slow single threaded CPU is an average GPU nowadays.
Why bring up CPUs? When we first heard about Larrabee, it was undecided where the thing would slot in, CPU or GPU. It could have gone the way of Keifer/Kevet, or been promoted to full CPU status. There was a lot of risk in putting out an insanely fast CPU that can't do a single thread at speed to save its life.
The solution would be to plop a Merom or two in the middle, but seeing as the chip was already too hot and big, that isn't going to happen, so instead a GPU was born. I would think that the whole GPU notion is going away soon as the whole concept gets pulled on die, or more likely adapted as tiles on a "Fusion like" marchitecture.
In any case, the whole idea of a GPU as a separate chip is a thing of the past. The first step is a GPU on a CPU like AMD's Fusion, but this is transitional. Both sides will pull the functionality into the core itself, and GPUs will cease to be. Now do you see why Nvidia is dead?
So, in two years, the first steps to GPUs going away will hit the market. From there, it is a matter of shrinking and adding features, but there is no turning back. Welcome the CGPU. Now do you understand why AMD had to buy ATI to survive? µ
UPPP :rotfl:
Foglia Morta
05-03-2007, 21:51
http://uk.theinquirer.net/?article=38011
Meanwhile, we hear Intel's discrete graphics part will be sampling in second half of next year, with some of usual suspects (Micron, Qimonda or Samsung) GDDR chips on the PCB. Release date is still somewhere between Yuletide '08 and Q1 2009.
INTEL HAD A cosy get together with DRAM vendors at an undisclosed location in Germany. Well Munich, actually.
Besides trashing memory vendors with insane amounts of German beer and pork, the topic of the meeting was to establish who will provide memory for the graphics chip giant's next-generation discrete graphics part, named Larabee
For information what Larrabee is and what the specs are, check our own Charlie's story here.
The memory makers are lining up GDDR5 in 512 and 1GB capacities. We also managed to get some nitty-gritty details about a PCIe Gen2 card with Larrabee chip on it.
Meanwhile, we hear Intel's discrete graphics part will be sampling in second half of next year, with some of usual suspects (Micron, Qimonda or Samsung) GDDR chips on the PCB. Release date is still somewhere between Yuletide '08 and Q1 2009. µ
Quanto tempo ancora... cambieranno tante cose che le news ora solo solo pro hype ovviamente. ;)
Foglia Morta
15-09-2007, 23:13
Quanto tempo ancora... cambieranno tante cose che le news ora solo solo pro hype ovviamente. ;)
lo so ma imho è interessante elencare i rumour fin dall'inizio e poi alla fine vedere quel che accade, altro rumour micca da poco:
http://www.tcmagazine.com/comments.php?shownews=16064&catid=6
Giant silicon salamander Intel Corporation has just announced that it is set to buy Havok Inc, in-game physics specialist based in Dublin, Ireland.
"Havok is a proven leader in physics technology for gaming and digital content, and will become a key element of Intel's visual computing and graphics efforts," said Renee J. James, Intel's VP and general manager of Software and Solutions Group.
The acquisition, which still has a few legal issues to surpass, will see Havok become a wholly owned subsidiary of Intel while its software will take more 'advantage' of Intel's technology and chips. Founded in 1998, Havok has become a very popular third-party developer which has seen its software used in games like Half-Life 2, Halo 2, BioShock, TES IV Oblivion and many more.
The financial details of the deal have not been disclosed but we believe Intel dug deep into its pocket for Havok.
CoreEssence
15-09-2007, 23:30
il mio sogno
Intel e nvidia Fusion :O
chissa che razza di cpu e vcg uscirebbero!
Un sogno per ora.
Foglia Morta
16-09-2007, 12:20
Direi che è ufficiale:
http://www.dailytech.com/Physics+Acceleration+Heats+Up+Intel+to+Purchase+Havok/article8896.htm
Intel reaches definitive agreement to purchase physics software developer Havok
Intel has announced it has signed a definitive agreement to purchase software developer Havok, Inc. Havok provides various software development tools to digital animation and game developers and is one of the largest providers for software physics.
“Havok is a proven leader in physics technology for gaming and digital content, and will become a key element of Intel’s visual computing and graphics efforts,” said Renee J. James, Intel vice president and general manager of Software and Solutions Group.
“This is a great fit for Havok products, customers and employees,” remarked Havok CEO David O’Meara. “Intel’s scale of technology investment and customer reach enable Havok with opportunities to grow more quickly into new market segments with new products than we could have done organically. We believe the winning combination is Havok’s technology and customer know-how with Intel’s scale. I am excited to be part of this next phase of Havok’s growth.”
A recent trend is to offload physics processing to either a GPU or dedicated physics processor. So far, though, Ageia, ATI, and NVIDIA have not made much headway in the physics market.
Both NVIDIA and ATI have previewed CrossFire and SLI Physics, however, neither company has delivered any actual physics hardware yet. It’s pretty interesting to note that both ATI and NVIDIA’s physics solutions rely on Havok FX. However, it is unlikely that Intel’s acquisition of Havok will affect Havok’s partnership with either AMD or NVIDIA.
“Havok will operate its business as usual, which will allow them to continue developing products that are offered across all platforms in the industry,” said Renee J. James regarding the future of Havok.
Essentially, Havok will operate as a subsidiary of Intel and will continue to operate as an independent business. This reinforces the belief that current partnerships will not be affected.
Havok has partnerships with many of the largest names in the gaming community such as Microsoft, Sony, Nintendo, NVIDIA, and AMD. Havok has provided software physics for games like Halo 3, The Elder Scrolls IV: Oblivion, Half Life 2 and Lost Planet: Extreme Condition.
In addition to providing software that adds physics realism to games, Havok also provides physics for professional software such as Autodesk’s 3DS Studio Max 9.
Foglia Morta
28-11-2007, 18:08
interessante articolo:
http://www.beyond3d.com/content/news/534
On October 19th, Neoptica was acquired by Intel in relation to the Larrabee project, but the news only broke on several websites in the last 2 days. We take a quick look at what Intel bought, and why, in this analysis piece.
[This piece is the third in a streak of experimental content which uses lists of facts and analysis rather than prose. We believe this should be faster to both read and write, while delivering a clearer message and being easier to follow. So let's see how this goes...]
Neoptica's Employees
* 8 employees (including the two co-founders) according to Neoptica's official website.
* 3 have a background with NVIDIA's Software Architecture group: Matt Pharr (editor of GPU Gems 2) and Craig Kolb who were also Exluna co-founders, and Geoff Berry. Tim Foley also worked there as an intern.
* 2 are ex-Electronic Arts employees: Jean-Luc Duprat (who also worked at Dreamworks Feature Animation) and Paul Lalonde.
* Nat Duca comes from Sony, where he led the development of the RSX tool suite and software development partnerships.
* Aaron Lefohn comes from Pixar, where he worked on GPU acceleration for rendering and interactive film preview.
* Pat Hanrahan also was on the technical advisory board. He used to work at Pixar, where he was the chief architect of the Renderman Interface protocol. His PhD students were also responsible for the creation of both Brook and CUDA.
Neoptica's Vision
* Neoptica published a technical whitepaper back in March 2007. Matt Pharr also gave a presentation at Graphics Hardware 2006 that highlights some similar points.
* It explained their perspective on the limitations of current programmable shading and their vision of the future, which they name "programmable graphics". Much of their point resides on the value of 'irregular algorithms' and the GPU's inability to construct complex data structures on its own.
* They argue that a faster link to the CPU is thus a key requirement, with efficient parallelism and collaboration between the two. Only the PS3 allows this today.
* They further claim the capability to deliver many round-trips between the CPU and the GPU every frame could make new algorithms possible and improve efficiency. They plead for the demise of the unidirectional rendering pipeline.
Neoptica's Proposed Solution
* Neoptica claims to have developed a deadlock-free high-level API that abstracts the concurrency between multiple CPUs and GPUs despite being programmed in C/C++ and Cg/HLSL respectively.
* These systems "deliver imagery that is impossible using the traditional hardware rendering pipeline, and deliver 10x to 50x speedups of existing GPU-only approaches."
* Of course, the claimed speed-up is likely for algorithms that just don't fit the GPU's architecture, so it's more accurate to just say a traditional renderer just couldn't work like that rather than claim huge performance benefits.
* Given that only the PS3 and, to a lesser extend, the XBox360 have a wide bus between the CPU and the GPU today, we would tend to believe next-generation consoles were their original intended market for this API.
* Of course, Neoptica doesn't magically change these consoles' capabilities. The advantage of their solution would be to make exotic and hybrid renderers which benefit from both processors (using CELL to approximate high-quality ambient occlusion, for example) much easier to develop.
Intel's Larrabee
* Larrabee is in several ways (but not all) a solution looking for a problem. While Intel's upcoming architecture might have inherent advantages in the GPGPU market and parts of the workstation segment, it wouldn't be so hot as a DX10 accelerator.
* In the consumer market, the short-term Larrabee strategy seems to be add value rather than try to replace traditional GPUs. This could be accomplished, for example, through physics acceleration and this ties in with the Havok acquisition.
* Unlike PhysX, however, Larrabee is fully programmable through a standard ISA. This makes it possible to add more value and possibly accelerate some algorithms GPUs cannot yet handle, thus improving overall visual quality.
* In the GPGPU market, things will be very different however, and there is some potential for the OpenGL workstation market too. We'll see if rumours about the latter turn out true or not.
* The short-term consumer strategy seems to make Larrabee a Tri- and Quad-SLI/Crossfire competitor, rather than a real GPU competitor. But Intel's ambitions don't stop there.
* While Larrabee is unlikely to excel in DX10 titles (and thus not be cost-competitive for such a market), its unique architecture does give it advantages in more exotic algorithms, ones that don't make sense in DX10 or even DX11. That (and GPGPU) is likely where Intel sees potential.
Intel's Reasoning for Neoptica
* Great researchers are always nice to have on your side, and Intel would probably love to have a next-generation gaming console contract. Neoptica's expertise in CPU-GPU collaboration is very valuable there.
* Intel's "GPU" strategy seems to be based around reducing the importance of next-generation graphics APIs, including DX11. Their inherent advantage is greater flexibility, but their disadvantage is lower performance for current workloads. This must have made Neoptica's claims music to their ears.
* Furthermore, several of Neoptica's employees have experience in offline rendering. Even if Larrabee didn't work out for real-time rendering, it might become a very attractive solution for the Pixars and Dreamworks of the world due to its combination of high performance and (nearly) infinite flexibility.
* Overall, if Intel must stand a chance to conquer the world of programmable graphics in the next 5 years, they need an intuitive API that abstracts the details while making developers remember how inflexible some parts of the GPU pipeline remain both today and in DirectX 11. Neoptica's employees and expertise certainly can't hurt there.
While we remain highly skeptical of Intel's short-term and mid-term prospects for Larrabee in the consumer market, the Neoptica and the Havok acquisitions seem to be splendid decisions to us, as they both potentially expand Larrabee's target market and reduce risk. In addition, there is always the possibility that as much as Intel loves the tech, they also love the instant 'street cred' in the graphics world they get from picking up that group of engineers.
We look forward to the coming years as these events and many others start making their impact.
Foglia Morta
16-01-2008, 13:15
ancora 2 annetti...
http://www.beyond3d.com/content/news/565
When Doug Freedman asked Paul Otellini about Larrabee during yesterday's conference call, we didn't think much would come out of it. But boy were we wrong: Otellini gave an incredibly to-the-point update on the project's timeframe. So rather than try to summarize, we'll just quote what Otellini had to say here.
Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe.
And yes, the seekingalpha.com transcript says 'Laramie' and we have no idea how anyone could spell it that way given the pronunciation, but whatever. The first interesting point is that Otellini said 'first silicon', as if it wasn't their intention to ship it in non-negligible quantities.
So it'd be little more than a prototype, which makes sense: it'll likely take quite some time for both game and GPGPU developers to get used to the architecture and programming model. At least this proves Intel isn't being ridiculously overly confident in terms of software adoption if we're interpreting that right, and that they're willing to make this a long-term investment.
On the other hand, if their first real product is expected to come out in 'late 2009', an important point becomes what process Intel will manufacture it on. If it's 45nm, they'll actually be at a density and power disadvantage against GPUs produced at TSMC, based on our understanding of both companies ' processes and roadmaps.
But if Intel is really aggressive and that chip is actually on 32nm, then they would be at a real process advantage. That seems less likely to us since it'd imply it would tape-out and release at about the same time as Intel's CPUs on a new process. Either way, it is a very important question.
The next point to consider is that in the 2H09/1H10 timeframe, Larrabee will compete against NVIDIA and AMD's all-new DX11 architectures. This makes architectural and programming flexibility questions especially hard to answer at this point. It should be obvious that NVIDIA and AMD must want to improve those aspects to fight against Larrabee though, so it could be a very interesting fight in the GPGPU market and beyond.
Foglia Morta
18-01-2008, 09:53
http://www.pczilla.net/upload/200801181427453327.jpg
nico88desmo
18-01-2008, 11:53
in circa 2 anni???!!!
Magari fosse così!!! però credo sia un pò improbabile...
Foglia Morta
18-01-2008, 12:53
ovviamente intel dice ciò che gli conviene dire. 2 anni per essere presenti sul mercato poi chissà quanto tempo ci vorrà prima che gli sviluppatori programmino bene per le sue gpu, poi imho non seguirà l'evoluzione che indicheranno le dx11 quindi penso che si concentrerà su una console e gpgpu
Foglia Morta
21-02-2008, 10:37
Molto interessanti le conseguenze di quest'ultima novità ( ma pare interessi solo a me :asd: )
Fonte (http://www.beyond3d.com/content/news/593)
Project Offset (http://www.projectoffset.com/news.php)
In a surprising turn of events, Sir Sam McGrath - founder of Project Offset - announced yesterday on the official company website that he and his team were now part of the Intel Kingdom.
Today we have some major news to announce.
Intel has acquired Offset Software. Yes, you read it correctly!
Project Offset is going strong and we are excited about things to come.
Stay tuned.
- Sam McGrath
As one can see, the missive couldn’t be any more to the point, while at the same time being short on information. Information such as an answer to the question everybody has in mind when confronted with this news: Why would Intel buy a small game developer that is currently working on a promising 3D engine and game?
It goes without saying that to us here at Beyond3D, this latest gaming-related purchase from Intel has Larrabee’s shadow all over it. Even though Larrabee’s architecture and scope are still shrouded in mystery, it seems clear to anyone who has followed the development of Intel’s elusive new graphics architecture that the CPU giant realised software would be a key issue for the completion of the project.
Intel has already shown its commitment to purchasing talent via the acquisition of Neoptica last November. In the meantime, the company has been steadily drafting 3D software experts into its stable of 3D knights, including TomF. The inclusion of a full fledged development house is an interesting move, however. We knew that Intel was in dire need of graphics API – or at least optimised libraries - tailored to Larrabee’s specifications. But what good would such a platform be without any impressive game or large application (demo) to take advantage of it?
At the same time, it is worth noting that recent pre-GDC rumours indicated that Intel was in potential talks to purchase German game developer Crytek. Now, did these talkative birds mistake Crytek for Offset Software, or is Intel still in a developer shopping mood? Well, let us wait and see.
Molto interessanti le conseguenze di quest'ultima novità ( ma pare interessi solo a me :asd: )
Fonte (http://www.beyond3d.com/content/news/593)
Project Offset (http://www.projectoffset.com/news.php)
In a surprising turn of events, Sir Sam McGrath - founder of Project Offset - announced yesterday on the official company website that he and his team were now part of the Intel Kingdom.
Today we have some major news to announce.
Intel has acquired Offset Software. Yes, you read it correctly!
Project Offset is going strong and we are excited about things to come.
Stay tuned.
- Sam McGrath
As one can see, the missive couldn’t be any more to the point, while at the same time being short on information. Information such as an answer to the question everybody has in mind when confronted with this news: Why would Intel buy a small game developer that is currently working on a promising 3D engine and game?
It goes without saying that to us here at Beyond3D, this latest gaming-related purchase from Intel has Larrabee’s shadow all over it. Even though Larrabee’s architecture and scope are still shrouded in mystery, it seems clear to anyone who has followed the development of Intel’s elusive new graphics architecture that the CPU giant realised software would be a key issue for the completion of the project.
Intel has already shown its commitment to purchasing talent via the acquisition of Neoptica last November. In the meantime, the company has been steadily drafting 3D software experts into its stable of 3D knights, including TomF. The inclusion of a full fledged development house is an interesting move, however. We knew that Intel was in dire need of graphics API – or at least optimised libraries - tailored to Larrabee’s specifications. But what good would such a platform be without any impressive game or large application (demo) to take advantage of it?
At the same time, it is worth noting that recent pre-GDC rumours indicated that Intel was in potential talks to purchase German game developer Crytek. Now, did these talkative birds mistake Crytek for Offset Software, or is Intel still in a developer shopping mood? Well, let us wait and see.
A seguito di queste novita' gli scenari che si aprono son quantomeno imprevedibili al momento. Sicuramente Intel ha in mente grosse novita' se e' interessata a certe acquisizioni.
Master Mystery
22-02-2008, 07:23
Advanced realism through acclerated ray tracing
http://it.youtube.com/watch?v=hIdvJONFOVU&feature=related
Con 50 xeon nel 2004 a 640x480 si andava a 4 fps al secondo con sto ray tracing.. con un quad core odierno si fanno 90fps circa a 1280x720, almeno così mi par di capire.
Ma ditemi se sbaglio, questo ray tracing è una tecnica di illuminazione che permette di illuminare/riflettere OGNI cosa a seconda dell'oggetto, quindi ottimizzazioni a livello software c'è ne possono essere poche.. se deve comunque riflettere tutto su ogni singolo pixel.. quindi le softshadow, pesantissime su un hardware di medio livello fino a diversi mesi fa, saranno nulla in proporzione alle ombre e ai riflessi che potremmo avere in futuro :D
Un fatto positivo è che il ray tracing sfrutta benissimo i multicore.. ma perchè dovrebbe sfruttare le CPU e non le GPU? :confused:
Foglia Morta
24-04-2008, 07:47
A seguito di queste novita' gli scenari che si aprono son quantomeno imprevedibili al momento. Sicuramente Intel ha in mente grosse novita' se e' interessata a certe acquisizioni.
http://www.beyond3d.com/content/news/631
Finalmente qualcosina detta da un ingegnere Intel:
For many months, researchers and marketing fanatics at Intel have been heralding the upcoming 'raytracing revolution', claiming rasterisation has run out of steam. So it is refreshing to hear someone actually working on Larrabee flatly denying that raytracing will be the chip's main focus.
Tom Forsyth is currently a software engineer working for Intel on Larrabee. He previously worked at Rad Game Tools on Pixomatic (a software rasterizer) and Granny3D, as well as Microprose, 3Dlabs, and most notably Muckyfoot Productions (RIP). He is well respected throughout the industry for the high quality insight on graphics programming techniques he posts on his blog. Last Friday, though, his post's subject was quite different:
"I've been trying to keep quiet, but I need to get one thing very clear. Larrabee is going to render DirectX and OpenGL games through rasterisation, not through raytracing.
I'm not sure how the message got so muddled. I think in our quest to just keep our heads down and get on with it, we've possibly been a bit too quiet. So some comments about exciting new rendering tech got misinterpreted as our one and only plan. [...] That has been the goal for the Larrabee team from day one, and it continues to be the primary focus of the hardware and software teams. [...]
There's no doubt Larrabee is going to be the world's most awesome raytracer. It's going to be the world's most awesome chip at a lot of heavy computing tasks - that's the joy of total programmability combined with serious number-crunching power. But that is cool stuff for those that want to play with wacky tech. We're not assuming everybody in the world will do this, we're not forcing anyone to do so, and we certainly can't just do it behind their backs and expect things to work - that would be absurd."
So, what does this mean actually mean for Larrabee, both technically and strategically? Look at it this way: Larrabee is a DX11 GPU with a design team that took both raytracing and GPGPU into consideration from the very start, while not forgetting performance in DX10+-class games that assume a rasteriser would be the most important factor determining the architecture's mainstream success or failure.
There's a reason for our choice of phrasing: the exact same sentence would be just as accurate for NVIDIA and AMD's architectures. Case in point: NVIDIA's Analyst Day 2008 had a huge amount of the time dedicated to GPGPU, and they clearly indicated their dedication to non-rasterised rendering in the 2009-2010 timeframe. We suspect the same is true for AMD.
The frequent implicit assumption that DX11 GPUs will basically be DX10 GPUs with a couple of quick changes and exposed tesselation is weak. Even if the programming model itself wasn't significantly changing (it is, with the IHVs providing significant input into direction), all current indications are that the architectures themselves will be significantly different compared to current offerings regardless, as the IHVs tackle the problem in front of them in the best way they know how, as they've always done.
The industry gains new ideas and thinking, and algorithms and innovation on the software side mean target workloads change; there's nothing magical about reinventing yourself every couple of years. That's the way the industry has always worked, and those which have failed to do so are long gone.
Intel is certainly coming up with an unusual architecture with Larrabee by exploiting the x86 instruction set for MIMD processing on the same core as the SIMD vector unit. And trying to achieve leading performance with barely any fixed-function unit is certainly ambitious.
But fundamentally, the design principles and goals really aren't that different from those of the chips it will be competing with. It will likely be slightly more flexible than the NVIDIA and AMD alternatives, let alone by making approaches such as logarithmic rasterisation acceleration possible, but it should be clearly understood that the differences may in fact not be quite as substantial as many are currently predicting.
The point is that it's not about rasterisation versus raytracing, or even x86 versus proprietary ISAs. It never was in the first place. The raytracing focus of early messaging was merely a distraction for the curious, so Intel could make some noise. Direct3D is the juggernaut, not the hardware.
"First, graphics that we have all come to know and love today, I have news for you. It's coming to an end. Our multi-decade old 3D graphics rendering architecture that's based on a rasterization approach is no longer scalable and suitable for the demands of the future." That's why the message got so muddled, Tom. And no offence, Pat, but history will prove you quite wrong.
Foglia Morta
12-05-2008, 13:17
Quad Larrabee : Intel's Answer To Nvidia's Domination?
http://www.vr-zone.com/articles/Quad_Larrabee_%3A_Intel%27s_Answer_To_Nvidia%27s_Domination%3F/5767.html
http://resources.vr-zone.com//newspics/May08/12/Larrabee_1.jpg
http://resources.vr-zone.com//newspics/May08/12/Larrabee_2.jpg
Nvidia is counter-attacking Intel on their upcoming Larrabee GPU calling it a PowerPoint slide and facing constant delays according to a CNET interview with Jen-Hsun Huang. Most probably, the first generation Larrabee will face a tough going against the Nvidia's GT200 series and beyond. However, according to a roadmap VR-Zone has seen, the second generation Larrabee might have a chance against Nvidia's future offerings in 2010-11 with a new architecture, many more cores on 32nm process technology and Quad Larrabee cards support. Clearly, Intel's strategy here is to increase the number of cores per GPU and increase the number of Larrabee GPUs supported per platform. This is possible due to their advanced fab and process technology, an area which fabless Nvidia has little control over and has to rely on TSMC's process technology. We are eager to see the first hint of Larrabee performance on the current and future games.
Foglia Morta
04-08-2008, 07:30
http://news.cnet.com/8301-13924_3-10005391-64.html
Intel has disclosed details on a chip that will compete directly with Nvidia and ATI and may take it into unchartered technological and market-segment waters.
Larrabee will be a stand-alone chip, meaning it will be very different than the low-end--but widely used--integrated graphics that Intel now offers as part of the silicon that accompanies its processors. And Larrabee will be based on the universal Intel x86 architecture.
The first Larrabee product will be "targeted at the personal computer market," according to Intel. This means the PC gaming market--putting Nvidia and AMD-ATI directly into Intel's sights. Nvidia and AMD-ATI currently dominate the market for "discrete" or stand-alone graphics processing units.
http://i.i.com.com/cnwk.1d/i/bto/20080803/intel-larrabee-2-small.jpg
As Intel sees it, Larrabee combines the best attributes of a central processing unit (CPU) with a graphics processor. "The thing we need is an architecture that combines the full programmability of the CPU with the kinds of parallelism and other special capabilities of graphics processors. And that architecture is Larrabee," Larry Seiler, a senior principal engineer in Intel's Visual Computing Group, said at a briefing on Larrabee in San Francisco last week.
"It is not a GPU as many have mistakenly described it, but it can do most graphics functions," Jon Peddie of Jon Peddie Research, said in an article he posted Friday about Larrabee.
"It looks like a GPU and acts like a GPU but actually what it's doing is introducing a large number of x86 cores into your PC," said Intel spokesperson Nick Knupffer.
Intel describes it in a statement as "the industry's first many-core x86 Intel architecture." Intel currently offers quad-core processors and will offer eight-core processors based on its Nehalem architecture, but Larrabee is expected to have dozens of cores and, later, possibly hundreds.
The number of cores in each Larrabee chip may vary, according to market segment. Intel showed a slide with core counts ranging from 8 to 48.
The individual cores in Larrabee are derived from the Intel Pentium processor and "then we added 64-bit instructions and multi-threading," Seiler said. Each core has 256 kilobytes of level-2 cache allowing the size of the cache to scale with the total number of cores, Seiler said.
Application programming interfaces (APIs) such as Microsoft's DirectX and Apple's Open CL can be tapped, Seiler said. "Larrabee does not require a special API. Larrabee will excel on standard graphics APIs," he said. "So existing games will be able to run on Larrabee products."
So, what is Larrabee's market potential? Today, the graphics chip market is approaching 400 million units a year and has consolidated into a handful of suppliers. "And of that population, two suppliers, ATI and Nvidia, own 98 percent of the discrete GPU business." according to Peddie.
"And the trend line indicates a flattening to decline in the business...However, Intel is no light-weight start up, and to enter the market today a company has to have a major infrastructure, deep IP (intellectual property), and marketing prowess--Intel has all that and more," Peddie said.
http://i.i.com.com/cnwk.1d/i/bto/20080803/intel-larrabee-explanation-slide-small.jpg
Though more details will be provided at Siggraph 2008, some key Larrabee features:
Larrabee programming model: supports a variety of highly parallel applications, including those that use irregular data structures. This enables development of graphics APIs, rapid innovation of new graphics algorithms, and true general purpose computation on the graphics processor with established PC software development tools.
Software-based scheduling: Larrabee features task scheduling which is performed entirely with software, rather than in fixed function logic. Therefore rendering pipelines and other complex software systems can adjust their resource scheduling based each workload's unique computing demand.
Execution threads: Larrabee architecture supports four execution threads per core with separate register sets per thread. This allows the use of a simple efficient in-order pipeline, but retains many of the latency-hiding benefits of more complex out-of-order pipelines when running highly parallel applications.
Ring network: Larrabee uses a 1024 bits-wide, bi-directional ring network (i.e., 512 bits in each direction) to allow agents to communicate with each other in low latency manner resulting in super fast communication between cores.
"A key characteristic of this vector processor is a property we call being vector complete...You can run 16 pixels in parallel, 16 vertices in parallel, or 16 more general program indications in parallel," Seiler said.
Foglia Morta
04-08-2008, 07:31
L'articolo di Anand Tech: http://anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367&p=1
Davvero interessante come articolo e l'aspetto architetturale innovativo lascia ben pensare, sebbene potrebbe rivelarsi un progetto molto piu' nebbioso e di lunga durata di quello che si era pensato inizialmente. Poco arrosto e molto vapore intendo.
Anche il target nell'utilizzo di queste ipotetiche soluzioni in campo discreto potrebbe essere molto basso, cosi' come ipotizzato da anand stesso.
Foglia Morta
04-08-2008, 08:43
Davvero interessante come articolo e l'aspetto architetturale innovativo lascia ben pensare, sebbene potrebbe rivelarsi un progetto molto piu' nebbioso e di lunga durata di quello che si era pensato inizialmente. Poco arrosto e molto vapore intendo.
Anche il target nell'utilizzo di queste ipotetiche soluzioni in campo discreto potrebbe essere molto basso, cosi' come ipotizzato da anand stesso.
Anche secondo me... Non mi aspetto molto da un larrabee a 45nm.
Notare però come scala bene al salire del numero di core:
http://images.anandtech.com/reviews/video/intel/larrabee/uArchIntro/corescale.jpg
Facendo la cpu/gpu in casa Intel avrà senz'altro vantaggi ma non avrà gli half-node che TSMC può fare. Spero che con i 32nm nel 2010 faccia un bel salto .
Da notare :
http://images.anandtech.com/reviews/video/intel/larrabee/uArchIntro/comparison.jpg
Ora mi domando se nVidia con la gpu DX11 passerà ad un architettura VLIW.
Edit:
Da notare anche il ring bus di Intel :D
http://img.hexus.net/v2/vpu/Larrabee/Block.jpg
Foglia Morta
04-08-2008, 08:51
Escono altri articoli:
http://www.heise.de/newsticker/Intel-Mit-Pentium-Kernen-gegen-Nvidia-und-ATI--/meldung/113739
http://www.pcper.com/article.php?aid=602
http://techgage.com/article/intel_opens_up_about_larrabee
http://www.hexus.net/content/item.php?item=14757
Kharonte85
04-08-2008, 09:50
mah, tutti si aspettavano di vedere una GPU discreta invece ci ritroveremo con una multi-CPU incestuata con una GPU, un ibrido insomma...che difficilmente potra' competere a breve con le gpu di razza...forse lo scopo di Intel è piu' che altro quello di imporre la sua visione del futuro e fregare il mercato ai concorrenti nella fascia che conta (quella bassa)...vedremo (non a breve)
Foglia Morta
04-08-2008, 10:06
è da mesi che si parla di multi-core cpu...
Comunque altra cosa interessante ( da Techgage ):
Not surprisingly, no raw performance data has been revealed yet, but Intel did give us a few graphs that show how well binned rendering compares to immediate mode per frame, and also how game performance can scale with Larrabee.
Using the technology called 'binned rendering', Intel's benchmarking results show that it's possible for a game to use much less memory bandwidth than when aspects of the game are rendered with traditional methods. As you can see, using the new binned mode, each game was able to use substantially less memory overall, sometimes half.
http://techgage.com/articles/intel/larrabee/intel_larrabee_briefing_080408_03_thumb.png
Non mi aspetto un mostro di velocità... ma tecnologie innovative che magari in futuro potranno fare di Intel un serio competitor di ATi e nVidia .
wolfnyght
04-08-2008, 10:24
se intel si messe a far gpu per i videogiochi è la fine di ati ed nvidia
ehm è già la maggior produttrice di gpu al mondo(solo che son integrate,per portatili ecc ecc ecc)
ha dalla sua tutto per distrugger la concorrenza :(
alla fine il colosso potrebbe far piazza pulità in un sol colpo di nvidia ati amd:cry:
e te salud concorrenza.
Kharonte85
04-08-2008, 10:31
è da mesi che si parla di multi-core cpu...
vero, ma mi aspettavo qualcosa di molto piu' GPU oriented...:fagiano:
se intel si messe a far gpu per i videogiochi è la fine di ati ed nvidia
ehm è già la maggior produttrice di gpu al mondo(solo che son integrate,per portatili ecc ecc ecc)
ha dalla sua tutto per distrugger la concorrenza :(
alla fine il colosso potrebbe far piazza pulità in un sol colpo di nvidia ati amd:cry:
e te salud concorrenza.
il problema si porrebbe solamente nel caso in cui larabee venisse incluso nel bundle dei quad core :sofico: ...altrimenti anche intel sara' costretta ad offrire un buon rapporto prezzo/prestazioni al pari (superiore) dei concorrenti...
Foglia Morta
04-08-2008, 12:41
vero, ma mi aspettavo qualcosa di molto piu' GPU oriented...:fagiano:
problemi loro :D
a me interessa vedere qualcosa di nuovo... poi se ci perdono soldi cavoli loro. Molto difficile essere al top già all'esordio , i soldi li hanno , con un po di tempo IMO arriveranno anche soluzioni competitive
Quad Larrabee : Intel's Answer To Nvidia's Domination?
http://www.vr-zone.com/articles/Quad_Larrabee_%3A_Intel%27s_Answer_To_Nvidia%27s_Domination%3F/5767.html
http://resources.vr-zone.com//newspics/May08/12/Larrabee_1.jpg
http://resources.vr-zone.com//newspics/May08/12/Larrabee_2.jpg
Nvidia is counter-attacking Intel on their upcoming Larrabee GPU calling it a PowerPoint slide and facing constant delays according to a CNET interview with Jen-Hsun Huang. Most probably, the first generation Larrabee will face a tough going against the Nvidia's GT200 series and beyond. However, according to a roadmap VR-Zone has seen, the second generation Larrabee might have a chance against Nvidia's future offerings in 2010-11 with a new architecture, many more cores on 32nm process technology and Quad Larrabee cards support. Clearly, Intel's strategy here is to increase the number of cores per GPU and increase the number of Larrabee GPUs supported per platform. This is possible due to their advanced fab and process technology, an area which fabless Nvidia has little control over and has to rely on TSMC's process technology. We are eager to see the first hint of Larrabee performance on the current and future games.
Mhhh... ho come il dubbio che il risultato finale sara questo:
- soluzione fisica disponibile nel 2015 (es)
- concettualmente un qualcosa da poter integrare nelle proprie piattaforme proprietarie Intel
- obiettivo di dare un senso "alternativo" all'uso di una gpu non-intel-standard
- risultato finale vedremo delle piattaforme low-middle end capaci di fare da cpu, gpu, fisica, =====> un nuovo strumento per fare tutto e farlo male.
Kharonte85
04-08-2008, 13:43
Mhhh... ho come il dubbio che il risultato finale sara questo:
- soluzione fisica disponibile nel 2015 (es)
- concettualmente un qualcosa da poter integrare nelle proprie piattaforme proprietarie Intel
- obiettivo di dare un senso "alternativo" all'uso di una gpu non-intel-standard
- risultato finale vedremo delle piattaforme low-middle end capaci di fare da cpu, gpu, fisica, =====> un nuovo strumento per fare tutto e farlo male.
:asd: in sostanza si continuerebbe la tradizione dei chipset integrati che diventano verdi rispetto alle soluzioni proposte da AMD/Nvidia ma essendo scontati e proposti a prezzi nulli avranno successo...
:asd: in sostanza si continuerebbe la tradizione dei chipset integrati che diventano verdi rispetto alle soluzioni proposte da AMD/Nvidia ma essendo scontati e proposti a prezzi nulli avranno successo...
Esatto, tante belle idee, sogni e speranze equiparabili all'innovazione portata dall'avere soluzione integrate full Directx10 inutilizzabili se non in ambiti ancora a me sconosciuti viste le performance.
Che poi siano ottime soluzioni da retrogaming, questo non si puo' negare. Il mio Mac Mini full Directx9 muove Half Life 2 a 640x480 scattando di bestia... :mbe: :doh:
Se poi si va indietro a testare sw Dx7 o 8... beh... giochiamo a Campo minato allora... non sia mai che vediamo il refresh del campo scattare a sua volta vista la mole di dati e l'utilizzo di avanzate tecniche di global illumination che esso richiede fin dalla versione Windows 3.1.
:O
Kharonte85
04-08-2008, 14:18
Esatto, tante belle idee, sogni e speranze equiparabili all'innovazione portata dall'avere soluzione integrate full Directx10 inutilizzabili se non in ambiti ancora a me sconosciuti viste le performance.
Che poi siano ottime soluzioni da retrogaming, questo non si puo' negare. Il mio Mac Mini full Directx9 muove Half Life 2 a 640x480 scattando di bestia... :mbe: :doh:
Se poi si va indietro a testare sw Dx7 o 8... beh... giochiamo a Campo minato allora... non sia mai che vediamo il refresh del campo scattare a sua volta vista la mole di dati e l'utilizzo di avanzate tecniche di global illumination che esso richiede fin dalla versione Windows 3.1.
:O
:mano:
Anche io sono un inguaribile ottimista...:O :D
Foglia Morta
04-08-2008, 14:26
L'articolo di Tech ARP : http://www.techarp.com/showarticle.aspx?artno=575&pgno=0
yossarian
04-08-2008, 16:16
che si stia andando verso la convergenza tra cpu e gpu è un dato di fatto.
In quest'ottica larrabee è la risposta di Intel al gpgpu e va interpretata come una sorta di spcpu o, se vogliamo, una cpu con ambizioni da gpu. Non è casuale, infine, che le critiche a tale progetto siano arrivate proprio da nVIDIA.
appleroof
04-08-2008, 17:08
:mano:
Anche io sono un inguaribile ottimista...:O :D
:asd:
che si stia andando verso la convergenza tra cpu e gpu è un dato di fatto.
In quest'ottica larrabee è la risposta di Intel al gpgpu e va interpretata come una sorta di spcpu o, se vogliamo, una cpu con ambizioni da gpu. Non è casuale, infine, che le critiche a tale progetto siano arrivate proprio da nVIDIA.
ebbè certo, tra Intel e Amd-Ati sarebbe l'unica a restare fuori dal gioco, forse i "corteggiamenti" a Via non sono solo fini a se stessi o per "ingelosire" Intel, ma magari stanno esplorando strade più concrete in questo senso...certo che da questo punto di vista ci aspetta una bella sfida nei prossimi anni...
yossarian
04-08-2008, 19:34
ebbè certo, tra Intel e Amd-Ati sarebbe l'unica a restare fuori dal gioco, forse i "corteggiamenti" a Via non sono solo fini a se stessi o per "ingelosire" Intel, ma magari stanno esplorando strade più concrete in questo senso...certo che da questo punto di vista ci aspetta una bella sfida nei prossimi anni...
anche perchè il progetto larrabee tende ad escludere nVIDIA da qualunque forma di partnership.A questo punto l'unica alternativa per nVIDIA è ottenere le licenze per le architetture x86 e VIA potrebbe tornare utile. Il problema è che nVIDIA ha bisogno di VIA e VIA è ben consapevole di questo.
Non è da escludere che questi sviluppi siano, almeno in parte, una conseguenza dell'acquisizione di ATi da parte di AMD
Foglia Morta
04-08-2008, 19:39
Ma pensi che nVidia abbia le risorse per progettare una cpu ? Intendo: tempo , risorse umane e capacità finanziaria. IMO avrebbero dovuto pensarci tempo fa... ora è un po tardi
appleroof
04-08-2008, 19:39
anche perchè il progetto larrabee tende ad escludere nVIDIA da qualunque forma di partnership.A questo punto l'unica alternativa per nVIDIA è ottenere le licenze per le architetture x86 e VIA potrebbe tornare utile. Il problema è che nVIDIA ha bisogno di VIA e VIA è ben consapevole di questo.
Non è da escludere che questi sviluppi siano, almeno in parte, una conseguenza dell'acquisizione di ATi da parte di AMD
quoto tutto
anche perchè il progetto larrabee tende ad escludere nVIDIA da qualunque forma di partnership.A questo punto l'unica alternativa per nVIDIA è ottenere le licenze per le architetture x86 e VIA potrebbe tornare utile. Il problema è che nVIDIA ha bisogno di VIA e VIA è ben consapevole di questo.
Non è da escludere che questi sviluppi siano, almeno in parte, una conseguenza dell'acquisizione di ATi da parte di AMD
Vero, sicuramente una acquisizione cosi' inaspettata e complessa stravolge i futuri progetti di tutte le aziende nel campo. Nvidia corre ai ripari, acquisisce know how come successo con Physx, Intel dal canto suo continua in un progetto che sicuramente non e' cosa che vedra' luce a breve soprattutto perche' si parla tanto di gpgpu computing ma alla fine non si e' ancora capito le reali applicazioni software che potrebbero essere di interesse comune cosi' come oggigiorno avviene con il rendering tridimensionale che bene o male ha dato da mangiare a tutte queste aziende, AMD e Intel comprese da anni.
Dal punto di vista di Nvidia credo che una acquisizione di quel calibro non sia cosa semplice da valutare per evitare di finire in una situazione che possa somigliare a quella attuale di AMD-ATI.
yossarian
04-08-2008, 21:54
Vero, sicuramente una acquisizione cosi' inaspettata e complessa stravolge i futuri progetti di tutte le aziende nel campo. Nvidia corre ai ripari, acquisisce know how come successo con Physx, Intel dal canto suo continua in un progetto che sicuramente non e' cosa che vedra' luce a breve soprattutto perche' si parla tanto di gpgpu computing ma alla fine non si e' ancora capito le reali applicazioni software che potrebbero essere di interesse comune cosi' come oggigiorno avviene con il rendering tridimensionale che bene o male ha dato da mangiare a tutte queste aziende, AMD e Intel comprese da anni.
Dal punto di vista di Nvidia credo che una acquisizione di quel calibro non sia cosa semplice da valutare per evitare di finire in una situazione che possa somigliare a quella attuale di AMD-ATI.
più che altro ha rotto certi equilibri. Inizialmente i chip grafici erano relegati ad un ruolo marginale, poichè, di fatto, si occupavano solo della rasterizzazione. Nel periodo a cavallo tra il '97 e il '98 si inizia a pensare all'integrazione di unità geometriche nei chip grafici. Il progetto è fortemente osteggiato da Intel e AMD. Nonostante ciò, con l'appoggio di MS che cercava di imporre le proprie api come piattafoema di gioco, S3, che cercava di recuperare quote di mercato dopo gli ultimi rovesci di fortuna, inizia a lavorare sul savage 2000, seguita a ruota da nVIDIA che presenterà il primo geforce. Con la seconda generazione arriva anche ATi e, successivamente, Matrox. Si arriva a qualche anno fa; nel frattempo i competitor nel settore gpu sono rimasti solo 2 e si inizia a parlare di gpu computing. Ovvero, non solo le gpu sono diventate sempre meno dipendenti dalle cpu relegandole in alcuni ambiti al ruolo di coprocessore (come avviene anche nella xbox360) ma stanno iniziando ad invadede campi che fino ad allora erano ad esclusivo appannaggio delle cpu e, per altro, anche con ottimi risultati. In questo contesto arriva l'acquisizione di ATi. Conseguenze: AMD è l'unica rimasta in grado di realizzare una piattaforma completa con componenti di alto livello. Dal canto suo, Intel, dopo la lezione avuta con l'architettura netburst, capisce che il futuro è del calcolo parallelo e che, per questo, le gpu possono diventare pericolose concorrenti anche in ambiti che erano considerati esclusivi per le cpu. Nasce così il porgetto larrabee, ovvero una cpu che ricalchi, a livello di parallelismo, una gpu e che possa competere con questa a livello di capacità di calcolo. Gli scopi sono essenzialmente due: competere in alcuni ambiti, prima esclusivi per le cpu, in cui le gpu stanno affermandosi in vistù della maggior potenza di calcolo; avere una piattaforma di partenza su cui lavorare per arrivare a realizzare una gpu di fascia alta che possa competere con AMD e nVIDIA. Dal canto suo, nVIDIA, essendo l'unica non in grado di realizzare una piattaforma completa sta cercando di muoversi in più ambiti per evitare di restare "schiacciata". Sta cercandi di rendere appetibili le sue gpu sfruttando physx, ma si ritrova, dall'altra parte, Intel che ha acquisito havok e sta creando una piattaforma in grado di gestire al meglio i calcoli fisici (larrabee, appunto); per questo motivo, sta cercando di portare AMD dalla sua parte, offrendogli la massima collaborazione qualora AMD decidesse di adottare physx come standard per la fisica (il fatto è che anche Intel sta cercando di convincere AMD a schierarsi dalla sua parte e AMD, in questo momento può permettersi di stare alla finestra). Sta trattando con VIA ma, nello stesso tempo, aveva intavolato trattative anche con Intel, con lo scopo di non essere obbligata a cedere ai ricatti dell'una o dell'altra per ottenere le licenze x86. In quest'ottica escluderei un'acquisizione di VIA perchè sarebbe troppo onerosa: VIA sa bene quanto nVIDIA abbia bisogno di queste licenze a tirerebbe molto in alto il prezzo, soprattutto adesso che Intel ha preso una posizione ben chiara facendo intendere di non aver bisogno di nVIDIA (e d'altra parte è logico che Intel non intenda cedere lo sfruttamento delle licenze a nVIDIA col risultato di ritrovarsi un terzo competitor di un certo spessore nel settore cpu). Si potrebbe ipotizzare una partnership, ma anche in questo caso, il prezzo che nVIDIA dovrebbe pagare sarebbe molto alto.
yossarian
04-08-2008, 21:59
Ma pensi che nVidia abbia le risorse per progettare una cpu ? Intendo: tempo , risorse umane e capacità finanziaria. IMO avrebbero dovuto pensarci tempo fa... ora è un po tardi
il fatto è che le gpu stanno evolvendo verso dispositivi di tipo gp e questo trend sarà sempre più marcato. Questo potrebbe semplificare il compito di nVIDIA che non si troverebbe a progettare qualcosa di completamente alieno. Certo, ci vorrebbe comunque del tempo e tutto il tempo che sta passando non gioca a favore di nVIDIA (e questo Intel lo sa bene). In questa fase AMD può essre l'ago della bilancia con alcune sue scelte (come ad esempio il modello da impiegare per le simulazioni fisiche, se havok o ageia, ovvero se intel o nvidia)
appleroof
04-08-2008, 22:03
il fatto è che le gpu stanno evolvendo verso dispositivi di tipo gp e questo trend sarà sempre più marcato. Questo potrebbe semplificare il compito di nVIDIA che non si troverebbe a progettare qualcosa di completamente alieno. Certo, ci vorrebbe comunque del tempo e tutto il tempo che sta passando non gioca a favore di nVIDIA (e questo Intel lo sa bene). In questa fase AMD può essre l'ago della bilancia con alcune sue scelte (come ad esempio il modello da impiegare per le simulazioni fisiche, se havok o ageia, ovvero se intel o nvidia)
ma intanto Amd ha già stretto accordi per havock...
yossarian
04-08-2008, 22:29
ma intanto Amd ha già stretto accordi per havock...
per ora; in ogni caso, se si dovesse confermare questa scelta anche in futuro, per nVIDIA le cose non si metterebbero molto bene perchè oltre alla mancanza delle licenze x86 avrebbe anche difficoltà a promuovere la propria implementazione della fisica.
più che altro ha rotto certi equilibri. Inizialmente i chip grafici erano relegati ad un ruolo marginale, poichè, di fatto, si occupavano solo della rasterizzazione. Nel periodo a cavallo tra il '97 e il '98 si inizia a pensare all'integrazione di unità geometriche nei chip grafici. Il progetto è fortemente osteggiato da Intel e AMD. Nonostante ciò, con l'appoggio di MS che cercava di imporre le proprie api come piattafoema di gioco, S3, che cercava di recuperare quote di mercato dopo gli ultimi rovesci di fortuna, inizia a lavorare sul savage 2000, seguita a ruota da nVIDIA che presenterà il primo geforce. Con la seconda generazione arriva anche ATi e, successivamente, Matrox. Si arriva a qualche anno fa; nel frattempo i competitor nel settore gpu sono rimasti solo 2 e si inizia a parlare di gpu computing. Ovvero, non solo le gpu sono diventate sempre meno dipendenti dalle cpu relegandole in alcuni ambiti al ruolo di coprocessore (come avviene anche nella xbox360) ma stanno iniziando ad invadede campi che fino ad allora erano ad esclusivo appannaggio delle cpu e, per altro, anche con ottimi risultati. In questo contesto arriva l'acquisizione di ATi. Conseguenze: AMD è l'unica rimasta in grado di realizzare una piattaforma completa con componenti di alto livello. Dal canto suo, Intel, dopo la lezione avuta con l'architettura netburst, capisce che il futuro è del calcolo parallelo e che, per questo, le gpu possono diventare pericolose concorrenti anche in ambiti che erano considerati esclusivi per le cpu. Nasce così il porgetto larrabee, ovvero una cpu che ricalchi, a livello di parallelismo, una gpu e che possa competere con questa a livello di capacità di calcolo. Gli scopi sono essenzialmente due: competere in alcuni ambiti, prima esclusivi per le cpu, in cui le gpu stanno affermandosi in vistù della maggior potenza di calcolo; avere una piattaforma di partenza su cui lavorare per arrivare a realizzare una gpu di fascia alta che possa competere con AMD e nVIDIA. Dal canto suo, nVIDIA, essendo l'unica non in grado di realizzare una piattaforma completa sta cercando di muoversi in più ambiti per evitare di restare "schiacciata". Sta cercandi di rendere appetibili le sue gpu sfruttando physx, ma si ritrova, dall'altra parte, Intel che ha acquisito havok e sta creando una piattaforma in grado di gestire al meglio i calcoli fisici (larrabee, appunto); per questo motivo, sta cercando di portare AMD dalla sua parte, offrendogli la massima collaborazione qualora AMD decidesse di adottare physx come standard per la fisica (il fatto è che anche Intel sta cercando di convincere AMD a schierarsi dalla sua parte e AMD, in questo momento può permettersi di stare alla finestra). Sta trattando con VIA ma, nello stesso tempo, aveva intavolato trattative anche con Intel, con lo scopo di non essere obbligata a cedere ai ricatti dell'una o dell'altra per ottenere le licenze x86. In quest'ottica escluderei un'acquisizione di VIA perchè sarebbe troppo onerosa: VIA sa bene quanto nVIDIA abbia bisogno di queste licenze a tirerebbe molto in alto il prezzo, soprattutto adesso che Intel ha preso una posizione ben chiara facendo intendere di non aver bisogno di nVIDIA (e d'altra parte è logico che Intel non intenda cedere lo sfruttamento delle licenze a nVIDIA col risultato di ritrovarsi un terzo competitor di un certo spessore nel settore cpu). Si potrebbe ipotizzare una partnership, ma anche in questo caso, il prezzo che nVIDIA dovrebbe pagare sarebbe molto alto.
Ottima analisi, effettivamente sembrerebbe che tutti bene o male stiano cercando di correre ai ripari ognuno per conto e a modo suo.
Mi ricorda un po' appunto l'era pre-directx ove si vedevano le piu' disparate soluzioni ostentare le ancor piu' disparate speranze di sfondare in un terreno ancora del tutto inesplorato quale era il 3d nel gaming su una piattaforma cosi' aperta al mercato hw come il computer.
Effettivamente lo scenario futuro (lontano) potrebbe vedere le cpu cosi' come le intendiamo ora scomparire per un qualcosa di differente. Ma si parla di innovazioni talmente tanto radicali, anche dal punto di vista software che sono impossibili da prevedere nei termini di tempi.
Alla fine ognuno va per conto suo ma ognuno ha bisogno dell'altro per poter vendere le proprie soluzioni dal momento che mangiano dallo stesso piatto.
nico88desmo
05-08-2008, 09:57
Discussione molto interessante.
A quanto pare, la presa peggio in questa situazione è nVidia, che non possiede licenza x86, e dal lato gpu avrà oltre Amd anche Intel, un'altra azienda con cui confrontarsi. (e che azienda!!!)
Ho letto le varie informazioni su Larrabee, e almeno architetturalmente non sembra per niente male (interessante la stima riguardo l'aumento quasi lineare di performance al variare del numero di core).
appleroof
05-08-2008, 17:21
per ora; in ogni caso, se si dovesse confermare questa scelta anche in futuro, per nVIDIA le cose non si metterebbero molto bene perchè oltre alla mancanza delle licenze x86 avrebbe anche difficoltà a promuovere la propria implementazione della fisica.
esatto però al riguardo dobbiamo tenere presente secondo me un paio di cose: la penetrazione nel mercato delle vga di Nvidia e la sua influenza nel mondo della programmazione, e la valutazione di Amd-Ati circa la convenienza o meno di togliere di mezzo un concorrente non solo suo ma appunto anche di una certa Intel, e rimanere (nel caso peggiore per Nvidia) da sola a vedersela con essa
siccome parliamo per ipotesi di scenari cmq non a breve termine (e ipotizzando possiamo dire tante cose :D ), credo che per ora forse Amd-Ati fà la preziosa anche essa nei confronti di Nvidia, staremo a vedere se e quando prenderà posizione in merito cosa succederà, solo allora forse avremo indicazioni ancora più precise di oggi in merito....
yossarian
05-08-2008, 17:28
esatto però al riguardo dobbiamo tenere presente secondo me un paio di cose: la penetrazione nel mercato delle vga di Nvidia e la sua influenza nel mondo della programmazione, e la valutazione di Amd-Ati circa la convenienza o meno di togliere di mezzo un concorrente non solo suo ma appunto anche di una certa Intel, e rimanere (nel caso peggiore per Nvidia) da sola a vedersela con essa
siccome parliamo per ipotesi di scenari cmq non a breve termine (e ipotizzando possiamo dire tante cose :D ), credo che per ora forse Amd-Ati fà la preziosa anche essa nei confronti di Nvidia, staremo a vedere se e quando prenderà posizione in merito cosa succederà, solo allora forse avremo indicazioni ancora più precise di oggi in merito....
la penetrazione nel mercato e l'influenza sono cose che so pososno ribaltare in tempi realetivamente brevi, soprattutto considerando che nVIDIA sta attraversando un periodo di crisi dal punto di vista tecnico e organizzativo.
Il terzo punto, invece, pesa molto e dovrà pesare ancora di più in futuro. In parole povere, AMD deve scegliere se continuare a battagliare su due fronti con due differenti avversari dal peso specifico ben diverso (Intel è un gigante nei confronti di AMD e, ancor di più, di nVIDIA), conoscendo bene il potenziale di entrambi e i loro lati deboli nei rispettivi campi (cpu e gpu), oppure decidere di sbarazzarsi di un rivale relativamente "scomodo" rischiando di lasciare campo libero ad un altro rivale potenzialmente molto più pericoloso.
Per questo motivo ho detto "per ora". Non credo che la scelta attiale di AMD possa considerarsi definitiva
appleroof
05-08-2008, 17:39
la penetrazione nel mercato e l'influenza sono cose che so pososno ribaltare in tempi realetivamente brevi, soprattutto considerando che nVIDIA sta attraversando un periodo di crisi dal punto di vista tecnico e organizzativo.
Il terzo punto, invece, pesa molto e dovrà pesare ancora di più in futuro. In parole povere, AMD deve scegliere se continuare a battagliare su due fronti con due differenti avversari dal peso specifico ben diverso (Intel è un gigante nei confronti di AMD e, ancor di più, di nVIDIA), conoscendo bene il potenziale di entrambi e i loro lati deboli nei rispettivi campi (cpu e gpu), oppure decidere di sbarazzarsi di un rivale relativamente "scomodo" rischiando di lasciare campo libero ad un altro rivale potenzialmente molto più pericoloso.
Per questo motivo ho detto "per ora". Non credo che la scelta attiale di AMD possa considerarsi definitiva
giusto, e per quello terminavo il mio post in quel modo...io nel mio piccolo non credo che ad Amd convenga indebolire o addirittura contribuire a "far fuori" Nvidia (e se poi, [fantasia ma insomma], a quel punto se la compra Intel?), sicuramente non con la situazione di bilancio che ha tuttora ed essendo ancora in forte difficoltà lato processori rispetto ad Intel, nel gioco a tre sicuramente le converrebbe al limite mettere in difficoltà il gigante, piuttosto che l'avversario relativamente meno pericoloso, almeno nello scenario attuale....vedremo :)
Kharonte85
05-08-2008, 17:43
la penetrazione nel mercato e l'influenza sono cose che so pososno ribaltare in tempi realetivamente brevi, soprattutto considerando che nVIDIA sta attraversando un periodo di crisi dal punto di vista tecnico e organizzativo.
Il terzo punto, invece, pesa molto e dovrà pesare ancora di più in futuro. In parole povere, AMD deve scegliere se continuare a battagliare su due fronti con due differenti avversari dal peso specifico ben diverso (Intel è un gigante nei confronti di AMD e, ancor di più, di nVIDIA), conoscendo bene il potenziale di entrambi e i loro lati deboli nei rispettivi campi (cpu e gpu), oppure decidere di sbarazzarsi di un rivale relativamente "scomodo" rischiando di lasciare campo libero ad un altro rivale potenzialmente molto più pericoloso.
Per questo motivo ho detto "per ora". Non credo che la scelta attiale di AMD possa considerarsi definitiva
quello che è certo è che sia AMD (valore delle azioni al minimo storico, perdite, licenziamenti ecc) che Nvidia (da inizio anno [2008] in costante discesa) non stanno passando un bel momento...sinceramente spero che entrambe tengano botta e che (egoisticamente perche' anche io mangio dal piatto di mamma intel) larabee rimanga un progetto di scarso successo, altrimenti lo spettro del monopolio non sara' mai stato cosi' vicino...
Kharonte85
05-08-2008, 17:44
giusto, e per quello terminavo il mio post in quel modo...io nel mio piccolo non credo che ad Amd convenga indebolire o addirittura contribuire a "far fuori" Nvidia (e se poi, [fantasia ma insomma], a quel punto se la compra Intel?), sicuramente non con la situazione di bilancio che ha tuttora ed essendo ancora in forte difficoltà lato processori rispetto ad Intel, nel gioco a tre sicuramente le converrebbe al limite mettere in difficoltà il gigante, piuttosto che l'avversario relativamente meno pericoloso, almeno nello scenario attuale....vedremo :)
Esattamente...;)
yossarian
05-08-2008, 18:03
giusto, e per quello terminavo il mio post in quel modo...io nel mio piccolo non credo che ad Amd convenga indebolire o addirittura contribuire a "far fuori" Nvidia (e se poi, [fantasia ma insomma], a quel punto se la compra Intel?), sicuramente non con la situazione di bilancio che ha tuttora ed essendo ancora in forte difficoltà lato processori rispetto ad Intel, nel gioco a tre sicuramente le converrebbe al limite mettere in difficoltà il gigante, piuttosto che l'avversario relativamente meno pericoloso, almeno nello scenario attuale....vedremo :)
infatti è una valutazione molto difficle e l'esito è tutt'altro che scontato. Finora ATi è riuscita a contrastare egregiamente nVIDIA in ambito GPU (l'alternanza dei risultati a vantaggio dell'una o dell'altra fanno parte del gioco); con Intel il discorso è differente: è riuscita a tenerla in scacco quando aveva un'architetutra migliore (poichè Intel si era intestardita con l'architettura netburst); adesso le cose sono diverse ed è AMD che deve inseguire dal punto di vista tecnico. Nel settore GPU intel non ha grande esperienza (almeno non nel setore high end). Lo stesso larrabee non nasce come una gpu ma come una cpu che culla l'ambizione di fare anche la gpu. Però sotto il profilo tecnologico e, soprattutto di ricerca e tecnologia dei materiali, è da sempre all'avanguardia (e questo non può non spaventare).
Tolta di mezzo nVIDIA, AMD rischierebbe di doversi confrontare con un gigante che potrebbe anche abbandonare temporaneamente o dedicare meno risorse alla ricerca nel settore cpu, forte del vantaggio accumulato, per concentarsi a colmare il gap nel settore gpu, magari acquisendo in parte o del tutto, il know how di nVIDIA e di altre aziende che operano nel settore (Intel non è interessata ad una partnership con nVIDIA perchè quello che dovrebbe dare in cambio è molto di più di quello che riceverebbe, e neppure all'acquisto alle cifre attuali, però se potesse mettereci le mani sopra a prezzi starcciati non credo che esiterebbe).
quello che è certo è che sia AMD (valore delle azioni al minimo storico, perdite, licenziamenti ecc) che Nvidia (da inizio anno [2008] in costante discesa) non stanno passando un bel momento...sinceramente spero che entrambe tengano botta e che (egoisticamente perche' anche io mangio dal piatto di mamma intel) larabee rimanga un progetto di scarso successo, altrimenti lo spettro del monopolio non sara' mai stato cosi' vicino...
infatti, una ha toccato il fondo e sta cercando di risalire, mentre l'altra ha imboccato la discesa e, nel frattempo, Intel sta in finestra a guardare gli sviluppi. Se non si trattasse di aziende in un mercato, per di più, altamente competitivo, sarebbe quasi da augurarsi che dichiarassero la fine delle ostilità e cercassero un accordo per evitare che Intel faccia da asso piglia tutto
appleroof
05-08-2008, 18:17
infatti è una valutazione molto difficle e l'esito è tutt'altro che scontato. Finora ATi è riuscita a contrastare egregiamente nVIDIA in ambito GPU (l'alternanza dei risultati a vantaggio dell'una o dell'altra fanno parte del gioco); con Intel il discorso è differente: è riuscita a tenerla in scacco quando aveva un'architetutra migliore (poichè Intel si era intestardita con l'architettura netburst); adesso le cose sono diverse ed è AMD che deve inseguire dal punto di vista tecnico. Nel settore GPU intel non ha grande esperienza (almeno non nel setore high end). Lo stesso larrabee non nasce come una gpu ma come una cpu che culla l'ambizione di fare anche la gpu. Però sotto il profilo tecnologico e, soprattutto di ricerca e tecnologia dei materiali, è da sempre all'avanguardia (e questo non può non spaventare).
Tolta di mezzo nVIDIA, AMD rischierebbe di doversi confrontare con un gigante che potrebbe anche abbandonare temporaneamente o dedicare meno risorse alla ricerca nel settore cpu, forte del vantaggio accumulato, per concentarsi a colmare il gap nel settore gpu, magari acquisendo in parte o del tutto, il know how di nVIDIA e di altre aziende che operano nel settore (Intel non è interessata ad una partnership con nVIDIA perchè quello che dovrebbe dare in cambio è molto di più di quello che riceverebbe, e neppure all'acquisto alle cifre attuali, però se potesse mettereci le mani sopra a prezzi starcciati non credo che esiterebbe).
esatto, d'accordo al 1000%
infatti, una ha toccato il fondo e sta cercando di risalire, mentre l'altra ha imboccato la discesa e, nel frattempo, Intel sta in finestra a guardare gli sviluppi. Se non si trattasse di aziende in un mercato, per di più, altamente competitivo, sarebbe quasi da augurarsi che dichiarassero la fine delle ostilità e cercassero un accordo per evitare che Intel faccia da asso piglia tutto
anche qui, quoto in pieno, l'unica cosa che ti chiederei è se veramente credi che Nvidia abbia imboccato la discesa, insomma non credi che nel giro di un anno o poco più potrebbe tornare in vetta (fermo restando che non lo è solo da un punto di vista economcio, per ora) con le gpu e la nuova architettura (per parlare del core-business)....insomma non vedo un'analogia, nella situazione attuale, tra Nvidia vs Ati e Amd vs Intel ai tempi del lancio del core2duo....
nico88desmo
05-08-2008, 18:47
esatto, d'accordo al 1000%
anche qui, quoto in pieno, l'unica cosa che ti chiederei è se veramente credi che Nvidia abbia imboccato la discesa, insomma non credi che nel giro di un anno o poco più potrebbe tornare in vetta (fermo restando che non lo è solo da un punto di vista economcio, per ora) con le gpu e la nuova architettura (per parlare del core-business)....insomma non vedo un'analogia, nella situazione attuale, tra Nvidia vs Ati e Amd vs Intel ai tempi del lancio del core2duo....
Sono pienamente d'accordo con i vostri discorsi.
Secondo me potrebbe essere che nVidia sia già diretta verso le DX11 da un pò di tempo.
Ricordando che dopo NV40, uscì G70 che era un'evoluzione del precedente, come ora GT200 è un'evoluzione di G80. (G9x non lo considero nemmeno dato l'uguaglianza quasi totale con G80);
L'immediato futuro di nVidia è GT200 a 55nm/45nm, mentre per il prossimo anno si vedrà la nuova architettura;
ciò non toglie che se Amd farà un chip migliore di nVidia anche con la nuova gen., penso che quest'ultima non sarà molto in buone acque dal lato guadagni.
Per Intel, Larrabbe sembra essere un'ottima architettura, però come supporto per i giochi e driver? anche qui c'è un grosso punto di domanda...
appleroof
05-08-2008, 18:51
Sono pienamente d'accordo con i vostri discorsi.
Secondo me potrebbe essere che nVidia sia già diretta verso le DX11 da un pò di tempo.
Ricordando che dopo NV40, uscì G70 che era un'evoluzione del precedente, come ora GT200 è un'evoluzione di G80. (G9x non lo considero nemmeno dato l'uguaglianza quasi totale con G80);
L'immediato futuro di nVidia è GT200 a 55nm/45nm, mentre per il prossimo anno si vedrà la nuova architettura;
ciò non toglie che se Amd farà un chip migliore di nVidia anche con la nuova gen., penso che quest'ultima non sarà molto in buone acque dal lato guadagni.
esatto, direi che è troppo presto dire che Nvidia sia in discesa, anche non guardando solo alle gpu in sè ma alla situazione complessiva, aspetto cmq con interesse sincero cosa ne pensa yossaran al riguardo :D
Per Intel, Larrabbe sembra essere un'ottima architettura, però come supporto per i giochi e driver? anche qui c'è un grosso punto di domanda...
già....
yossarian
05-08-2008, 19:10
anche qui, quoto in pieno, l'unica cosa che ti chiederei è se veramente credi che Nvidia abbia imboccato la discesa, insomma non credi che nel giro di un anno o poco più potrebbe tornare in vetta (fermo restando che non lo è solo da un punto di vista economcio, per ora) con le gpu e la nuova architettura (per parlare del core-business)....insomma non vedo un'analogia, nella situazione attuale, tra Nvidia vs Ati e Amd vs Intel ai tempi del lancio del core2duo....
al momento nVIDIA non è in difficoltà dal punto di vista economico, ma è in ritardo con le ricerche sui processi produttivi e si ritrova un'architettura che si è rivelata afficiente da subito ma che la sta portando ad avere seri problemi di rese e costi molto elevati; questo senza tener conto dei limiti fisici a cui si va incontro avendo la necessità di realizzare die sempre più ingombranti. Progettare una nuova architetutra significa investire ingenti risorse e sperare che la nuova architettura possa rivelarsi competitiva in tempi brevi. Nel frattempo si deve trovare il modo di smaltire i chip vecchi. Quindi lanciare una nuova architettura a breve comportarebbe il rischio di una nuova sovrapposizione di prodotti simile a quella a cui si sta assistendo e che fa ritardare il lancio degli "scarti" di GT200 (d'altra parte era necessario prendere confidenza con il pp a 55 nm e non lo si poteva fare direttamente con GT200; sarà necessario prendere confidenza con il successivo pp e non lo si potrà fare con la nuova architettura me si dovrà ricorrere, presumibilmente, ad uno shrink di gt200 che però prima sarebbe opportuno provare a 55 nm, oppure con uno shrink ulteriore di g9x). Tra l'altro lo shrink di G9x a 55 nm fa capire che il prossimo chip sarà a 55 nm e, presumibilmente, sarà uno shrink di GT200 (il che significa che si saranno da smaltire anche gli "scarti" di GT200 a 65 e a 55 nm prima del lancio della nuova architettura)
I prezzi elevati rendono poco competitivi anche agli occhi dei fornitori (e nVIDIA ha perso l'esclusiva con alcuni partner che le erano rimasti fedeli persino ai tempi di NV30) e la mancata implementazione di feature che favoriscono la semplicità di programmazione fa perdere anche il rapporto privilegiato con alcune SWHouse.
E' tutta questa serie di ritardi accumulati che, se al momento non sono recepiti dall'utente finale, lo sono sicuramente dagli addetti a i lavori e finiranno per avere delle ripercusisoni a livello di bilancio. Lo stato "confusionale" è testimoniato anche dal modo confusionario in cui stanno gestendo il passaggio da G8x a GT200, come pure dal modo frenetico in cui cercano alleati o partner; il problema è che né Intel, né AMD, né la stessa VIA hanno bisogno di nVIDIA più di quanto essa abbia bisogno di uno di loro (il futuro va verso la convergenza e nVIDIA, al momento, è l'unica ad essere tagliata fuori). Le uniche che potrebbero tenderle una mano sono VIA (ma il prezzo da pagare sarebbe molto alto) e, paradossalmente, proprio AMD se decidesse che è più comodo avere anche nVIDIA nel gioco, piuttosto che doversela vedere faccia a faccia con la sola Intel su tutti i fronti. Quindi la crisi di nVIDIA va valutata in un'ottica più ampia di quella che va da ora alle prossime due generazioni di chip grafici.
Dall'altro lato, AMD è in crisi dal punto di vista economico in seguito all'acquisizione di ATi (ma anche perchè l'acquisizione è arrivata in un momento poco felice dal punto di vista della concorrenza con Intel) ed è in ritardo rispetto ad Intel, almeno con le architetture delle cpu di tipo consumer. Paradossalmente, gli unici settori in cui AMD è competitiva sono attualmente quelli che facevano parte del core business di ATi (gpu e chipset), mentre conserva ancora parte dei contratti nel settore cpu per server.
In pratica, il quadro non è roseo per nessuna delle due e ad aggravarlo c'è lo spettro di Intel che sembra intenzionata a far loro concorrenza su tutti i fronti (compresi quelli su cui non si era ancora cimentata) e se ha deciso di farlo è perchè, evidentemente, ha captato il momento favorevole (che poi equivale a dire il momento di difficoltà degli avversari)
appleroof
05-08-2008, 19:38
al momento nVIDIA non è in difficoltà dal punto di vista economico, ma è in ritardo con le ricerche sui processi produttivi e si ritrova un'architettura che si è rivelata afficiente da subito ma che la sta portando ad avere seri problemi di rese e costi molto elevati; questo senza tener conto dei limiti fisici a cui si va incontro avendo la necessità di realizzare die sempre più ingombranti. Progettare una nuova architetutra significa investire ingenti risorse e sperare che la nuova architettura possa rivelarsi competitiva in tempi brevi. Nel frattempo si deve trovare il modo di smaltire i chip vecchi. Quindi lanciare una nuova architettura a breve comportarebbe il rischio di una nuova sovrapposizione di prodotti simile a quella a cui si sta assistendo e che fa ritardare il lancio degli "scarti" di GT200 (d'altra parte era necessario prendere confidenza con il pp a 55 nm e non lo si poteva fare direttamente con GT200; sarà necessario prendere confidenza con il successivo pp e non lo si potrà fare con la nuova architettura me si dovrà ricorrere, presumibilmente, ad uno shrink di gt200 che però prima sarebbe opportuno provare a 55 nm, oppure con uno shrink ulteriore di g9x). Tra l'altro lo shrink di G9x a 55 nm fa capire che il prossimo chip sarà a 55 nm e, presumibilmente, sarà uno shrink di GT200 (il che significa che si saranno da smaltire anche gli "scarti" di GT200 a 65 e a 55 nm prima del lancio della nuova architettura)
I prezzi elevati rendono poco competitivi anche agli occhi dei fornitori (e nVIDIA ha perso l'esclusiva con alcuni partner che le erano rimasti fedeli persino ai tempi di NV30) e la mancata implementazione di feature che favoriscono la semplicità di programmazione fa perdere anche il rapporto privilegiato con alcune SWHouse.
E' tutta questa serie di ritardi accumulati che, se al momento non sono recepiti dall'utente finale, lo sono sicuramente dagli addetti a i lavori e finiranno per avere delle ripercusisoni a livello di bilancio. Lo stato "confusionale" è testimoniato anche dal modo confusionario in cui stanno gestendo il passaggio da G8x a GT200, come pure dal modo frenetico in cui cercano alleati o partner;
sono d'accordo (e ti assicuro che lo stato delle cose si percepisce -imho è dall'inizio dell'anno che si nota quella confusione cui ti riferisci- pochissimo tempo fà in un altro tread sostenevo che dovrebbero tagliare qualche testa in quell'azienda secondo me :D ): non so se sia possibile, ma a questo punto forse sarebbe opportuno un cambio drastico di strategia (i p/p li possono sperimentare in laboratorio no? e sul mercato "accontentarsi" di competere con quanto hanno, in quest'ottica vedrei quasi inutile l'ulteriore shrink di g200 dopo quello a 55nm proprio per i rischi che indichi, in fondo sarebbe il gioco delle parti, con Ati, che vediamo da anni e a cui tu stesso giustamente ti riferivi....)
il problema è che né Intel, né AMD, né la stessa VIA hanno bisogno di nVIDIA più di quanto essa abbia bisogno di uno di loro (il futuro va verso la convergenza e nVIDIA, al momento, è l'unica ad essere tagliata fuori). Le uniche che potrebbero tenderle una mano sono VIA (ma il prezzo da pagare sarebbe molto alto) e, paradossalmente, proprio AMD se decidesse che è più comodo avere anche nVIDIA nel gioco, piuttosto che doversela vedere faccia a faccia con la sola Intel su tutti i fronti. Quindi la crisi di nVIDIA va valutata in un'ottica più ampia di quella che va da ora alle prossime due generazioni di chip grafici.
si questo direi che è abbastanza chiaro ormai, quindi alla fine della fiera tu vedi l'inizio del declino a partire da ora, a meno di drastici cambi di scenario... (e cmq la nuova architettura dx11 arriverà a fine 2009 giocherà un ruolo decisivo ovviamente, solo per curiosità [parte in neretto] ma cosa intendi per 2 generazioni di chip grafici? i die-shrink o il cambio totale di architettura?...)
Dall'altro lato, AMD è in crisi dal punto di vista economico in seguito all'acquisizione di ATi (ma anche perchè l'acquisizione è arrivata in un momento poco felice dal punto di vista della concorrenza con Intel) ed è in ritardo rispetto ad Intel, almeno con le architetture delle cpu di tipo consumer. Paradossalmente, gli unici settori in cui AMD è competitiva sono attualmente quelli che facevano parte del core business di ATi (gpu e chipset), mentre conserva ancora parte dei contratti nel settore cpu per server.
In pratica, il quadro non è roseo per nessuna delle due e ad aggravarlo c'è lo spettro di Intel che sembra intenzionata a far loro concorrenza su tutti i fronti (compresi quelli su cui non si era ancora cimentata) e se ha deciso di farlo è perchè, evidentemente, ha captato il momento favorevole (che poi equivale a dire il momento di difficoltà degli avversari)
Infatti non oso immaginare cosa sarebbe oggi Amd se non avesse Ati in casa (e la velocità con la quale essa ha usato il pp a 55nm con tutto quello che ha comportato in termini economici prima di rv770)
sulla posizione di Intel...spero davvero che tra un tot anni non arrivi a mangiarsi tutto.
sono d'accordo (e ti assicuro che lo stato delle cose si percepisce -imho è dall'inizio dell'anno che si nota quella confusione cui ti riferisci- pochissimo tempo fà in un altro tread sostenevo che dovrebbero tagliare qualche testa in quell'azienda secondo me :D ): non so se sia possibile, ma a questo punto forse sarebbe opportuno un cambio drastico di strategia (i p/p li possono sperimentare in laboratorio no? e sul mercato "accontentarsi" di competere con quanto hanno, in quest'ottica vedrei quasi inutile l'ulteriore shrink di g200 dopo quello a 55nm proprio per i rischi che indichi, in fondo sarebbe il gioco delle parti, con Ati, che vediamo da anni e a cui tu stesso giustamente ti riferivi....)
si questo direi che è abbastanza chiaro ormai, quindi alla fine della fiera tu vedi l'inizio del declino a partire da ora, a meno di drastici cambi di scenario... (e cmq la nuova architettura dx11 arriverà a fine 2009 giocherà un ruolo decisivo ovviamente, solo per curiosità [parte in neretto] ma cosa intendi per 2 generazioni di chip grafici? i die-shrink o il cambio totale di architettura?...)
Infatti non oso immaginare cosa sarebbe oggi Amd se non avesse Ati in casa (e la velocità con la quale essa ha usato il pp a 55nm con tutto quello che ha comportato in termini economici prima di rv770)
sulla posizione di Intel...spero davvero che tra un tot anni non arrivi a mangiarsi tutto.
C'e' anche da valutare che se AMD non avesse acquisito Ati probabilmente si sarebbe concentrata maggiormente sullo sviluppo delle proprie cpu e probabilmente avrebbe potuto spingere il settore high end non abbracciando mai quella politica attuale di copertura low and middle target che a mio parere rende relativamente poco, sempre sulla onda del possibile fallimento se per caso qualcosa andasse storto, e sempre con l'impressione che AMD cosi' facendo non si potra' mai rialzare del tutto dall'enorme declino post acquisizione. Credo che AMD abbia investito (per forza di cose visto la spesuccia) troppe risorse e menti sul settore grafico in un momento in cui Nvidia comunque cavalcava l'onda.
Ora come tutte le epoche anche Nvidia si trova in brutte acque e Intel e' come il leone che sente l'odore del sangue non di uno ma di due animali morenti anzi 3 se ci mettiamo i diversi settori. Se 10 minuti prima era ad 1 km ora ce l'hai dietro le spalle.
Sicuramente imho Intel non ha intenzione di catapultarsi cosi' come fatto da AMD in un settore cosi' complesso come quello delle gpu discrete ove il mercato ora risulta saturo in un mondo in cui le attuali gpu hanno raggiunto un livello di ottimizzazione e complessita' tale da non permettere nemmeno ad un colosso come Intel di "sfondare". Certamente il fatto che ci sia una convergenza delle architetture verso una sorta di general computing che lentamente si astrae dall'essere dedicata al puro rendering, ha permesso ad Intel di annusare l'enorme futuro guadagno con queste idee di multipurpose solutions rivendibili in molteplici campi dal gaming al mobile computing.
I tempi sono ancora acerbi e il campo pieno di caduti. Di sicuro quello che non vedremo e' nascere un'altro concorrente.
yossarian
05-08-2008, 20:08
sono d'accordo (e ti assicuro che lo stato delle cose si percepisce -imho è dall'inizio dell'anno che si nota quella confusione cui ti riferisci- pochissimo tempo fà in un altro tread sostenevo che dovrebbero tagliare qualche testa in quell'azienda secondo me :D ): non so se sia possibile, ma a questo punto forse sarebbe opportuno un cambio drastico di strategia (i p/p li possono sperimentare in laboratorio no? e sul mercato "accontentarsi" di competere con quanto hanno, in quest'ottica vedrei quasi inutile l'ulteriore shrink di g200 dopo quello a 55nm proprio per i rischi che indichi, in fondo sarebbe il gioco delle parti, con Ati, che vediamo da anni e a cui tu stesso giustamente ti riferivi....)
in laboratorio è possibile fare delle simulazioni circuitali, in cui si può tener conto di tutte le problematiche; però è necessaria anche la prova sul campo: a volte si verificano dei bug che sfuggono a tutte le possibili simulazioni e che è possibile rilevare solo nell'uso concreto del chip.
Quindi basarsi solo su dati teorici può essere molto rischioso
si questo direi che è abbastanza chiaro ormai, quindi alla fine della fiera tu vedi l'inizio del declino a partire da ora, a meno di drastici cambi di scenario... (e cmq la nuova architettura dx11 arriverà a fine 2009 giocherà un ruolo decisivo ovviamente, solo per curiosità [parte in neretto] ma cosa intendi per 2 generazioni di chip grafici? i die-shrink o il cambio totale di architettura?...)
il processo di convergenza tra cpu e gpu e l'integrazione dei sistemi non farà che accelerare questo processo; non si è di fronte ad uno scenario tra due competitor che si combattono tra alterne vicende in un settore specifcio (come è stato finora tra ATi e nVIDIA); per questo dicevo prima che l'acquisizione di ATi da parte di AMD ha rotto degli equilibri in cui i produttori di gpu e di cpu erano ben distinti e si facevano la guerra o facevano cartello a seconda delle esigenze.
Inoltre l'ingresso di Intel in altri settori potrebbe accelerare questo processo.
Per due generazioni intendo un periodo temporale di circa 2 anni (lo shrimk di GT200 e la nuova architetutra), il tempo necessario ad effettuare la transizione verso le dx11 e per vedere i primi giochi full dx10 (o meglio dx10.1).
sulla posizione di Intel...spero davvero che tra un tot anni non arrivi a mangiarsi tutto.
non mi stupirei se tentasse di farlo; intanto sta cercando di mettere AMD e nVIDIA una contro l'altra (il fatto di continuare a supportare il crossfire nonostante l'acquisizione di ATi da parte della rivale storica ti dice niente? E pensi che non ci sia questo e qualcosaltro dietro all'attule dichiarato supporto alle librerie havock di Intel da parte di AMD?
Ne aggiungo un'altra: non mi meraviglierei se dietro alla decisione di Blizzard ed EA di implementare le dx10.1 non ci fosse AMD :D
yossarian
05-08-2008, 20:30
C'e' anche da valutare che se AMD non avesse acquisito Ati probabilmente si sarebbe concentrata maggiormente sullo sviluppo delle proprie cpu e probabilmente avrebbe potuto spingere il settore high end non abbracciando mai quella politica attuale di copertura low and middle target che a mio parere rende relativamente poco, sempre sulla onda del possibile fallimento se per caso qualcosa andasse storto, e sempre con l'impressione che AMD cosi' facendo non si potra' mai rialzare del tutto dall'enorme declino post acquisizione. Credo che AMD abbia investito (per forza di cose visto la spesuccia) troppe risorse e menti sul settore grafico in un momento in cui Nvidia comunque cavalcava l'onda.
Ora come tutte le epoche anche Nvidia si trova in brutte acque e Intel e' come il leone che sente l'odore del sangue non di uno ma di due animali morenti anzi 3 se ci mettiamo i diversi settori. Se 10 minuti prima era ad 1 km ora ce l'hai dietro le spalle.
Sicuramente imho Intel non ha intenzione di catapultarsi cosi' come fatto da AMD in un settore cosi' complesso come quello delle gpu discrete ove il mercato ora risulta saturo in un mondo in cui le attuali gpu hanno raggiunto un livello di ottimizzazione e complessita' tale da non permettere nemmeno ad un colosso come Intel di "sfondare". Certamente il fatto che ci sia una convergenza delle architetture verso una sorta di general computing che lentamente si astrae dall'essere dedicata al puro rendering, ha permesso ad Intel di annusare l'enorme futuro guadagno con queste idee di multipurpose solutions rivendibili in molteplici campi dal gaming al mobile computing.
I tempi sono ancora acerbi e il campo pieno di caduti. Di sicuro quello che non vedremo e' nascere un'altro concorrente.
in questo ambiente non c'è niente di casuale; non lo è la collaborazione tra IBM e AMD, non lo è stata l'acquisizione di ATi da parte di AMD, non lo è la guerra, al momento indiretta, che si stanno facendo Intel e nVIDIA.
IBM ha bisogno di AMD per tenere a bada Intel e AMD ha bisogno delle tecnologie di IBM per essere competitva nei confronti di Intel. AMD aveva bisogno di espandere il proprio core business per potre competere anche in altri settori dove Intel era presente (chipset e gpu), soprattutto dopo che Intel era tornata competitiva nel settore cpu.
Intel ha bisogno qualcuno se vuole "sfondare" nel segmento GPU. Questo qualcuno può essere nVIDIA, ma in cambio dovrebbe fornire le licenze x86 e avrebbe un altro concorrente nel settore cpu; oppure AMD che non ha bisogno di altro se non di sbarazzarsi di uno scomodo competitor (nVIDIA). nVIDIA, dal canto suo, non aveva fornito ad Intel la licenza per lo SLI tenendosela come arma di ricatto per ottenere la licenza x86 e Intel ha risposto continuando con il supporto per crossfire anche dopo l'acquisizione di ATi.
La conclusione è che, allo stato attuale, l'unica in posizione di forza è Intel che può contare sull'appoggio di AMD per l'implementazione della fisica in cambio del supporto al crossfire; può mettere in crisi nVIDIA spingendo per l'adozione delle dx10.1 che metterebbero in evidenza i limiti architetturali di g80 e Gt200 facendone calare ulteriorimente le vendite e trasformando la crisi tecnica di nVIDIA in una grave crisi economica, anche perchè, a quel punto, nVIDIA sarebbe costretta ad accelerare l'uscita della nuova architettura per far fronte alle lacune della attuale.
A quel punto nVIDIA potrebbe diventare una facile preda per Intel che si ritroverebbe ad acquisire l'unica cosa che ancora le manca, ovvero il know how per realizzare gpu di fascia alta, a prezzi stracciati.
Oviamente le conclusioni sono rigorosamente IMHO, però è uno scenario del tutto plausibile
appleroof
05-08-2008, 20:47
C'e' anche da valutare che se AMD non avesse acquisito Ati probabilmente si sarebbe concentrata maggiormente sullo sviluppo delle proprie cpu e probabilmente avrebbe potuto spingere il settore high end non abbracciando mai quella politica attuale di copertura low and middle target che a mio parere rende relativamente poco, sempre sulla onda del possibile fallimento se per caso qualcosa andasse storto, e sempre con l'impressione che AMD cosi' facendo non si potra' mai rialzare del tutto dall'enorme declino post acquisizione. Credo che AMD abbia investito (per forza di cose visto la spesuccia) troppe risorse e menti sul settore grafico in un momento in cui Nvidia comunque cavalcava l'onda.
si può benissimo essere come dici al riguardo del fatto che forse amd avrebbe potuto continuare a fare bene il suo lavoro, non lo sapremo mai però....
credo cmq che l'abbracciare il settore low e middle delle cpu, per ora ed in attesa dei "nuovi" processori, non sia esattamente una scelta, ma una necessità :D
per il resto, da ammiratore dei processori Amd (dopo un pentium III ho avuto 4 cpu Amd prima di tornare ad Intel) non ero contento dell'acquisizione di Ati, qualche mese dopo che avvenne, per i motivi che sappiamo (chissà se non avesse fatto meglio a usare strumenti diversi e più soft, magari una joint-venture o qualcosa di simile) ma credo che abbia valutato la cosa nel lungo termine, subodorando (ovviamente con il senno di poi è facilissimo dirlo per me :D ) gli sviluppi della convergenza cpu-gpu
Ora come tutte le epoche anche Nvidia si trova in brutte acque e Intel e' come il leone che sente l'odore del sangue non di uno ma di due animali morenti anzi 3 se ci mettiamo i diversi settori. Se 10 minuti prima era ad 1 km ora ce l'hai dietro le spalle.
un'immagine alquanto inquietante :D :D però efficace....
Sicuramente imho Intel non ha intenzione di catapultarsi cosi' come fatto da AMD in un settore cosi' complesso come quello delle gpu discrete ove il mercato ora risulta saturo in un mondo in cui le attuali gpu hanno raggiunto un livello di ottimizzazione e complessita' tale da non permettere nemmeno ad un colosso come Intel di "sfondare". Certamente il fatto che ci sia una convergenza delle architetture verso una sorta di general computing che lentamente si astrae dall'essere dedicata al puro rendering, ha permesso ad Intel di annusare l'enorme futuro guadagno con queste idee di multipurpose solutions rivendibili in molteplici campi dal gaming al mobile computing.
I tempi sono ancora acerbi e il campo pieno di caduti. Di sicuro quello che non vedremo e' nascere un'altro concorrente.
io credo che aspetti solo di papparsi Nvidia a prezzi buoni, come detto, ed intanto lavora direttamente (larrabee) ed indirettamente (come suggerisce yossaran) per raggiungere il risultato....
in laboratorio è possibile fare delle simulazioni circuitali, in cui si può tener conto di tutte le problematiche; però è necessaria anche la prova sul campo: a volte si verificano dei bug che sfuggono a tutte le possibili simulazioni e che è possibile rilevare solo nell'uso concreto del chip.
Quindi basarsi solo su dati teorici può essere molto rischioso
non è possibile allora avere dei sample fisici da testare, quindi, pensavo piuttosto a quelli, essendo praticamente ignorante in materia....
cut
Per due generazioni intendo un periodo temporale di circa 2 anni (lo shrimk di GT200 e la nuova architetutra), il tempo necessario ad effettuare la transizione verso le dx11 e per vedere i primi giochi full dx10 (o meglio dx10.1).
ok...
cut
Ne aggiungo un'altra: non mi meraviglierei se dietro alla decisione di Blizzard ed EA di implementare le dx10.1 non ci fosse AMD :D
........:eek:
in questo ambiente non c'è niente di casuale; non lo è la collaborazione tra IBM e AMD, non lo è stata l'acquisizione di ATi da parte di AMD, non lo è la guerra, al momenot indiretta, che si stanno facendo Intel e nVIDIA.
IBM ha bisogno di AMD per tenere a bada Intel e AMD ha bisogno delle tecnologie di IBM per essere competitva nei confronti di Intel. AMD aveva bisogno di espandere il proprio core business per potre competere anche in altri settori dove Intel era presente (chipset e gpu), soprattutto dopo che Intel era tornata competitiva nel settore cpu.
Intel ha bisogno qualcuno se vuole "sfondare" nel segmento GPU. Questo qualcuno può essere nVIDIA, ma in cambio dovrebbe fornire le licenze x86 e avrebbe un altro concorrente nel settore cpu; oppure AMD che non ha bisogno di altro se non di sbarazzarsi di uno scomodo competitor (nVIDIA). nVIDIA, dal canto suo, non aveva fornito ad Intel la licenza per lo SLI tenendosela come arma di ricatto per ottenere la licenza x86 e Intel ha risposto continuando con il supporto per crossfire anche dopo l'acquisizione di ATi.
La conclusione è che, allo stato attuale, l'unica in posizione di forza è Intel che può contare sull'appoggio di AMD per l'implementazione della fisica in cambio del supporto al crossfire; può mettere in crisi nVIDIA spingendo per l'adozione delle dx10.1 che metterebbero in evidenza i limiti architetturali di g80 e Gt200 facendone calare ulteriorimente le vendite e trasformando la crisi tecnica di nVIDIA in una grave crisi economica, anche perchè, a quel punto, nVIDIA sarebbe costretta ad accelerare l'uscita della nuova architettura per far fronte alle lacune della attuale.
A quel punto nVIDIA potrebbe diventare una facile preda per Intel che si ritroverebbe ad acquisire l'unica cosa che ancora le manca, ovvero il know how per realizzare gpu di fascia alta, a prezzi stracciati.
Oviamente le conclusioni sono rigorosamente IMHO, però è uno scenario del tutto plausibile
Anche a fronte di un ulteriore forte ribasso delle azioni Nvidia pensi davvero che lo scenario di una simile acquisizione possa essere fattibile? Certo e' che se Nvidia in forte calo si facesse acquisire da Intel ho come l'impressione che la grafica su pc cosi' come la conosciamo potrebbe cambiare di botto con una adozione a gran voce di questo benedetto general computing e lasciando ormai al passato il termine di scheda grafica.
Preoccupante sarebbe la situazione monopolista di due enormi aziende che coprirebbero cpu, gpu, gppu, a braccietto con Microsoft lasciando ben poca speranza a una possibile nuova concorrenza.
si può benissimo essere come dici al riguardo del fatto che forse amd avrebbe potuto continuare a fare bene il suo lavoro, non lo sapremo mai però....
credo cmq che l'abbracciare il settore low e middle delle cpu, per ora ed in attesa dei "nuovi" processori, non sia esattamente una scelta, ma una necessità :D
per il resto, da ammiratore dei processori Amd (dopo un pentium III ho avuto 4 cpu Amd prima di tornare ad Intel) non ero contento dell'acquisizione di Ati, qualche mese dopo che avvenne, per i motivi che sappiamo (chissà se non avesse fatto meglio a usare strumenti diversi e più soft, magari una joint-venture o qualcosa di simile) ma credo che abbia valutato la cosa nel lungo termine, subodorando (ovviamente con il senno di poi è facilissimo dirlo per me :D ) gli sviluppi della convergenza cpu-gpu
un'immagine alquanto inquietante :D :D però efficace....
io credo che aspetti solo di papparsi Nvidia a prezzi buoni, come detto, ed intanto lavora direttamente (larrabee) ed indirettamente (come suggerisce yossaran) per raggiungere il risultato....
non è possibile allora avere dei sample fisici da testare, quindi, pensavo piuttosto a quelli, essendo praticamente ignorante in materia....
ok...
........:eek:
Beh sicuramente a livello progettuale saranno ben diverse le versioni di chip testate anche fisicamente. Come e' logico pensare pero' a fronte di una produzione di centinaia di migliaia di gpu certi problemi magari non emulabili computazionalmente diventano evidentemente rilevanti e seriali.
Non e' il primo caso di produzioni con simili errori, il problema e' che a volte correggerne certi significa abbandonare o voltare pagina. Se con NV30 Nvidia ha cercato di salvare il salvabile (cosi' Amd con R600) vendendo quel che aveva e coprendo il tutto da una sorta di risata generale vedi il famoso video, in casi simili a quelli odierni evidentemente i problemi sono talmente gravi da non poter sistemare cosi' facilmente la cosa.
Intel con (sotto) Nvidia comunque e' uno scenario che mi lascia davvero basito.
yossarian
05-08-2008, 21:06
Anche a fronte di un ulteriore forte ribasso delle azioni Nvidia pensi davvero che lo scenario di una simile acquisizione possa essere fattibile? Certo e' che se Nvidia in forte calo si facesse acquisire da Intel ho come l'impressione che la grafica su pc cosi' come la conosciamo potrebbe cambiare di botto con una adozione a gran voce di questo benedetto general computing e lasciando ormai al passato il termine di scheda grafica.
Preoccupante sarebbe la situazione monopolista di due enormi aziende che coprirebbero cpu, gpu, gppu, a braccietto con Microsoft lasciando ben poca speranza a una possibile nuova concorrenza.
dipende da quanto forte è il ribasso: come dimensioni nVIDIA non è molto differente da ATi quando è stata acquisita da AMD e Intel ha ben più risorse di AMD stessa.
Il rischio non è di due aziende monopoliste; col tempo si potrebbe arrivare ad una sola azienda che decida tutto a braccetto con MS. Finora MS e Intel sono state in parte rivali, in quanto la prima spinge le proprie APi e la seconda cerca di frenare per evitare che le cpu diventino sempre meno "centrali" nell'architettura di un pc. Lo scenario potrebbe cambiare se Intel si buttasse nel settore grafico high end e nel general computing; a quel punto potrebbe diventare alleato di MS e cercare di imporre un'accelerazione a questo processo.
yossarian
05-08-2008, 21:10
Beh sicuramente a livello progettuale saranno ben diverse le versioni di chip testate anche fisicamente. Come e' logico pensare pero' a fronte di una produzione di centinaia di migliaia di gpu certi problemi magari non emulabili computazionalmente diventano evidentemente rilevanti e seriali.
Non e' il primo caso di produzioni con simili errori, il problema e' che a volte correggerne certi significa abbandonare o voltare pagina. Se con NV30 Nvidia ha cercato di salvare il salvabile (cosi' Amd con R600) vendendo quel che aveva e coprendo il tutto da una sorta di risata generale vedi il famoso video, in casi simili a quelli odierni evidentemente i problemi sono talmente gravi da non poter sistemare cosi' facilmente la cosa.
Intel con (sotto) Nvidia comunque e' uno scenario che mi lascia davvero basito.
non mi riferisco nè a nv30 nè a r600; in entrambi i casi non si è trattato di bug imprevisti; nv30 aveva un'architettura "vecchia" per le dx9 e r600 utilizzava un pp non adeguato.
Invece, ad esempio, il ritardo sull'uscita di r520 era dovuto ad un bug
dipende da quanto forte è il ribasso: come dimensioni nVIDIA non è molto differente da ATi quando è stata acquisita da AMD e Intel ha ben più risorse di AMD stessa.
Il rischio non è di due aziende monopoliste; col tempo si potrebbe arrivare ad una sola azienda che decida tutto a braccetto con MS. Finora MS e Intel sono state in parte rivali, in quanto la prima spinge le proprie APi e la seconda cerca di frenare per evitare che le cpu diventino sempre meno "centrali" nell'architettura di un pc. Lo scenario potrebbe cambiare se Intel si buttasse nel settore grafico high end e nel general computing; a quel punto potrebbe diventare alleato di MS e cercare di imporre un'accelerazione a questo processo.
Ho come l'impressione pero' che Intel non abbia poi l'interesse che poteva avere AMD nei suoi piani iniziali circa il settore high end. Anche perche' rischierebbe proprio di ritrovarsi negli stessi panni di AMD risorse a prescindere. Anche solo a organizzarsi a livello di risorse umane e gestione del nuovo bagaglio da coordinare, si perde moltissimo in termini di tempo con AMD che potrebbe approfittarne per cercare un distacco (improbabile).
Una fusione cosi' significativa imho demoralizza tutte le menti che dapprima avevano creato vere e proprie perle di tecnologia e a rimetterci alla fine e' tutta l'azienda. Personalmente non avrei mai detti che ATI sarebbe caduta cosi' in basso dopo l'acquisizione dal punto di vista di idee e di capacita' di stupire. Certo non siamo piu' ai tempi delle Directx7, ma sono sicuro che se fosse rimasta indipendente a quest'ora si sarebbe ripresa come visto tante volte in passato. Speriamo che Nvidia non faccia la stessa "fine".
non mi riferisco nè a nv30 nè a r600; in entrambi i casi non si è trattato di bug imprevisti; nv30 aveva un'architettura "vecchia" per le dx9 e r600 utilizzava un pp non adeguato.
Invece, ad esempio, il ritardo sull'uscita di r520 era dovuto ad un bug
Li avevo presi come riferimento a situazioni impreviste e sul quale ormai si possa fare poco se non ... dimenticare.
appleroof
05-08-2008, 21:19
Ho come l'impressione pero' che Intel non abbia poi l'interesse che poteva avere AMD nei suoi piani iniziali circa il settore high end. Anche perche' rischierebbe proprio di ritrovarsi negli stessi panni di AMD risorse a prescindere. Anche solo a organizzarsi a livello di risorse umane e gestione del nuovo bagaglio da coordinare, si perde moltissimo in termini di tempo con AMD che potrebbe approfittarne per cercare un distacco (improbabile).
Una fusione cosi' significativa imho demoralizza gli stessi cervelloni che dapprima avevano creato dei mostri e a rimetterci e' tutta l'azienda. Personalmente non avrei mai detti che ATI sarebbe caduta cosi' in basso dopo l'acquisizione dal punto di vista di idee e di capacita' di stupire. Certo non siamo piu' ai tempi delle Directx7, ma sono sicuro che se fosse rimasta indipendente a quest'ora si sarebbe ripresa come visto tante volte in passato. Speriamo che Nvidia non faccia la stessa "fine".
bè, non credo che rv770 faccia tanta pietà :D e lo stesso mi dicono essere una semplice evoluzione di r600....
yossarian
05-08-2008, 21:24
Ho come l'impressione pero' che Intel non abbia poi l'interesse che poteva avere AMD nei suoi piani iniziali circa il settore high end. Anche perche' rischierebbe proprio di ritrovarsi negli stessi panni di AMD risorse a prescindere. Anche solo a organizzarsi a livello di risorse umane e gestione del nuovo bagaglio da coordinare, si perde moltissimo in termini di tempo con AMD che potrebbe approfittarne per cercare un distacco (improbabile).
il fatto è che si va verso la convergenza gpu-cpu e il general computing e un determinato know how Intel o se lo crea o lo acquisisce.
Che poi Amd possa acquisiare del vantaggio lo dubito, considerato che, al momento è in ritardo e deve prima colmare il gap; semmai è intel che può approfittare di questo vantaggio per distrarre delle risorse da riservare ad altri fronti.
Una fusione cosi' significativa imho demoralizza tutte le menti che dapprima avevano creato vere e proprie perle di tecnologia e a rimetterci alla fine e' tutta l'azienda. Personalmente non avrei mai detti che ATI sarebbe caduta cosi' in basso dopo l'acquisizione dal punto di vista di idee e di capacita' di stupire. Certo non siamo piu' ai tempi delle Directx7, ma sono sicuro che se fosse rimasta indipendente a quest'ora si sarebbe ripresa come visto tante volte in passato. Speriamo che Nvidia non faccia la stessa "fine".
le idee ci sono anche adesso ed RV770 è una dimostrazione del fatto che quelle alla base di R600 non erano sbagliate.
Inoltre, ATi e nVIDIA sono aziende relativamente piccole che difficilmente possono reggere il confronto con aziende di dimensioni molto maggiori. Come pure erano molto piccole tutte le aziende che operavano nel settore chip grafici (per questo sono pressochè sparite tutte tranne le due di dimensioni maggiori).
Kharonte85
05-08-2008, 22:43
C'e' anche da valutare che se AMD non avesse acquisito Ati probabilmente si sarebbe concentrata maggiormente sullo sviluppo delle proprie cpu e probabilmente avrebbe potuto spingere il settore high end non abbracciando mai quella politica attuale di copertura low and middle target che a mio parere rende relativamente poco, sempre sulla onda del possibile fallimento se per caso qualcosa andasse storto, e sempre con l'impressione che AMD cosi' facendo non si potra' mai rialzare del tutto dall'enorme declino post acquisizione. Credo che AMD abbia investito (per forza di cose visto la spesuccia) troppe risorse e menti sul settore grafico in un momento in cui Nvidia comunque cavalcava l'onda.
Ora come tutte le epoche anche Nvidia si trova in brutte acque e Intel e' come il leone che sente l'odore del sangue non di uno ma di due animali morenti anzi 3 se ci mettiamo i diversi settori. Se 10 minuti prima era ad 1 km ora ce l'hai dietro le spalle.
Sicuramente imho Intel non ha intenzione di catapultarsi cosi' come fatto da AMD in un settore cosi' complesso come quello delle gpu discrete ove il mercato ora risulta saturo in un mondo in cui le attuali gpu hanno raggiunto un livello di ottimizzazione e complessita' tale da non permettere nemmeno ad un colosso come Intel di "sfondare". Certamente il fatto che ci sia una convergenza delle architetture verso una sorta di general computing che lentamente si astrae dall'essere dedicata al puro rendering, ha permesso ad Intel di annusare l'enorme futuro guadagno con queste idee di multipurpose solutions rivendibili in molteplici campi dal gaming al mobile computing.
I tempi sono ancora acerbi e il campo pieno di caduti. Di sicuro quello che non vedremo e' nascere un'altro concorrente.
Proseguendo la metafora in questi scenari sembrerebbe necessario il sacrificio di uno dei 2 animali sanguinanti per saziare la fame del Leone, quindi o AMD o Nvidia devono morire (o quasi)
Gli scenari fantapolitici-economici si sprecano:
Nvidia non si ripiglia e morente viene acquistata da intel che potra' dissetare la sua sete di sangue e acquisirebbe le conoscenze per partecipare al mondo GPU discreto a livelli alti ----> vince intel
AMD va in fallimento, viene comprata da IBM, continua a fare processori mentre la divisione ATI ridimensionata a fare schede low profile (il personale sparpagliato ovunque); nvidia diventa leader nel mercato GPU discreto, ma intel decide che vanno di moda le CPU per fare la grafica, alla lunga ----> vince Intel
Nulla cambia, larrabe naufraga come anche il multi CPU dedicate alla grafica viene abbandonato, la strada dell'integrazione (per qualche motivo) non paga. Il resto lo faranno la bravura nel presentare prodotti competitivi ---> non vince nessuno (o il piu' bravo)
... ecc...ecc...????
Non vedremo emergere nessun'altro dato che il piatto è uno e gia' in tre ci stanno stretti...
il processo di convergenza tra cpu e gpu e l'integrazione dei sistemi non farà che accelerare questo processo; non si è di fronte ad uno scenario tra due competitor che si combattono tra alterne vicende in un settore specifcio (come è stato finora tra ATi e nVIDIA); per questo dicevo prima che l'acquisizione di ATi da parte di AMD ha rotto degli equilibri in cui i produttori di gpu e di cpu erano ben distinti e si facevano la guerra o facevano cartello a seconda delle esigenze.
Inoltre l'ingresso di Intel in altri settori potrebbe accelerare questo processo.
per quanto ne sappiamo ora potrebbe anche non funzionare, e lo dobbiamo mettere in conto...
non mi stupirei se tentasse di farlo; intanto sta cercando di mettere AMD e nVIDIA una contro l'altra (il fatto di continuare a supportare il crossfire nonostante l'acquisizione di ATi da parte della rivale storica ti dice niente? E pensi che non ci sia questo e qualcosaltro dietro all'attule dichiarato supporto alle librerie havock di Intel da parte di AMD?
Ne aggiungo un'altra: non mi meraviglierei se dietro alla decisione di Blizzard ed EA di implementare le dx10.1 non ci fosse AMD :D
La mossa di allearsi col leone (da parte di AMD) è sbagliata perche' dopo aver mangiato la prima preda passerebbe alla seconda...
Il supporto alle dx10.1 è sicuramente un contentino che blizzard e EA daranno sotto precisa richiesta di AMD ($$$)
in questo ambiente non c'è niente di casuale; non lo è la collaborazione tra IBM e AMD, non lo è stata l'acquisizione di ATi da parte di AMD, non lo è la guerra, al momento indiretta, che si stanno facendo Intel e nVIDIA.
IBM ha bisogno di AMD per tenere a bada Intel e AMD ha bisogno delle tecnologie di IBM per essere competitva nei confronti di Intel. AMD aveva bisogno di espandere il proprio core business per potre competere anche in altri settori dove Intel era presente (chipset e gpu), soprattutto dopo che Intel era tornata competitiva nel settore cpu.
Intel ha bisogno qualcuno se vuole "sfondare" nel segmento GPU. Questo qualcuno può essere nVIDIA, ma in cambio dovrebbe fornire le licenze x86 e avrebbe un altro concorrente nel settore cpu; oppure AMD che non ha bisogno di altro se non di sbarazzarsi di uno scomodo competitor (nVIDIA). nVIDIA, dal canto suo, non aveva fornito ad Intel la licenza per lo SLI tenendosela come arma di ricatto per ottenere la licenza x86 e Intel ha risposto continuando con il supporto per crossfire anche dopo l'acquisizione di ATi.
La conclusione è che, allo stato attuale, l'unica in posizione di forza è Intel che può contare sull'appoggio di AMD per l'implementazione della fisica in cambio del supporto al crossfire; può mettere in crisi nVIDIA spingendo per l'adozione delle dx10.1 che metterebbero in evidenza i limiti architetturali di g80 e Gt200 facendone calare ulteriorimente le vendite e trasformando la crisi tecnica di nVIDIA in una grave crisi economica, anche perchè, a quel punto, nVIDIA sarebbe costretta ad accelerare l'uscita della nuova architettura per far fronte alle lacune della attuale.
A quel punto nVIDIA potrebbe diventare una facile preda per Intel che si ritroverebbe ad acquisire l'unica cosa che ancora le manca, ovvero il know how per realizzare gpu di fascia alta, a prezzi stracciati.
Oviamente le conclusioni sono rigorosamente IMHO, però è uno scenario del tutto plausibile
Hai ragione quando dici che nulla è casuale in questo ambiente, ma è anche vero che questi scenari sono davvero poco prevedibili in quanto dipendenti da troppi fattori che non rimangono mai del tutto costanti nel tempo (fra cui alcuni che sono proprio imprevedibili a priori come le scelte delle persone)
Non sono d'accordo solo sulla parte in grassetto poiche' i tempi per l'arrivo delle dx10.1 in uno scenario in grande (che significa > di quei 2,3 Giochi) a tal punto da mettere in crisi nvidia nel suo territorio sono talmente lontani da far presagire l'arrivo delle dx11 ancora prima che questo possa iniziare a verificarsi [ricordandoci inoltre che una delle condizione necessarie è che XP dovra' essere morto e sepolto] la battaglia ci sara' ma sul solito terreno prezzo/prestazioni.
Il supporto al crossfire da parte di Intel è palesemente figlio di una decisione politica di Nvidia...se quest'ultima uscisse davvero dal mercato dei chipset, andrebbe subito a corteggiare Intel che contraccambierebbe con passione (scaricando la EX [AMD] tempo zero) inserendo il supporto allo SLI ponendo cosi' le basi per l'inizio di una lunga storia d'amore...
Anche a fronte di un ulteriore forte ribasso delle azioni Nvidia pensi davvero che lo scenario di una simile acquisizione possa essere fattibile? Certo e' che se Nvidia in forte calo si facesse acquisire da Intel ho come l'impressione che la grafica su pc cosi' come la conosciamo potrebbe cambiare di botto con una adozione a gran voce di questo benedetto general computing e lasciando ormai al passato il termine di scheda grafica.
Preoccupante sarebbe la situazione monopolista di due enormi aziende che coprirebbero cpu, gpu, gppu, a braccietto con Microsoft lasciando ben poca speranza a una possibile nuova concorrenza.
Un incubo...:help:
non mi stupirei se tentasse di farlo; intanto sta cercando di mettere AMD e nVIDIA una contro l'altra (il fatto di continuare a supportare il crossfire nonostante l'acquisizione di ATi da parte della rivale storica ti dice niente? E pensi che non ci sia questo e qualcosaltro dietro all'attule dichiarato supporto alle librerie havock di Intel da parte di AMD?
Ne aggiungo un'altra: non mi meraviglierei se dietro alla decisione di Blizzard ed EA di implementare le dx10.1 non ci fosse AMD :D
quindi credi che Intel tema un'alleanza AMD/nVidia?
bYeZ!
yossarian
06-08-2008, 01:47
Proseguendo la metafora in questi scenari sembrerebbe necessario il sacrificio di uno dei 2 animali sanguinanti per saziare la fame del Leone, quindi o AMD o Nvidia devono morire (o quasi)
Gli scenari fantapolitici-economici si sprecano:
Nvidia non si ripiglia e morente viene acquistata da intel che potra' dissetare la sua sete di sangue e acquisirebbe le conoscenze per partecipare al mondo GPU discreto a livelli alti ----> vince intel
AMD va in fallimento, viene comprata da IBM, continua a fare processori mentre la divisione ATI ridimensionata a fare schede low profile (il personale sparpagliato ovunque); nvidia diventa leader nel mercato GPU discreto, ma intel decide che vanno di moda le CPU per fare la grafica, alla lunga ----> vince Intel
Nulla cambia, larrabe naufraga come anche il multi CPU dedicate alla grafica viene abbandonato, la strada dell'integrazione (per qualche motivo) non paga. Il resto lo faranno la bravura nel presentare prodotti competitivi ---> non vince nessuno (o il piu' bravo)
... ecc...ecc...????
Non vedremo emergere nessun'altro dato che il piatto è uno e gia' in tre ci stanno stretti...
di concreto cìè che con AMD e nVIDIA che spingono per il gpu computing e Intel che replica con una cpu che è destinata a diventare una gpu, il piatto diventerà veramente uno solo e nVIDIA e Intel sono destinate a diventare avversarie dirette. Non è un caso che proprio nVIDIA abbia criticato aspramente larrabee definendolo un progetto per ora solo su carta; è evidente che tra le due (l'altra è AMD) è quella che si sente chiamata in causa più direttamente e la cosa è strana, visto che finora Intel ha parlato di larrabee principalmente come di una cpu multicore.
per quanto ne sappiamo ora potrebbe anche non funzionare, e lo dobbiamo mettere in conto...
altamente improbabile, dal momento che tutti, al momento, MS compresa, vanno in quella direzione; persino nVIDIA sta cercando di farlo e per questo vorrebbe ottenere le licenze x86
La mossa di allearsi col leone (da parte di AMD) è sbagliata perche' dopo aver mangiato la prima preda passerebbe alla seconda...
su questo siamo d'accordo infatti AMD ha di fronte una scelta non facile
Il supporto alle dx10.1 è sicuramente un contentino che blizzard e EA daranno sotto precisa richiesta di AMD ($$$)
perchè blizzard ed EA dovrebbero dare contentini ad AMD? Diciamo piuttosto che non ha senso programmare un gioco in dx10, viste le limitazioni che queste api comportano, e sarebbe più opportuno adottare direttamente le 10.1. In ogni caso non ha senso pagare per feature che saranno comunque implementate dalle dx10.1 o dalle 11.
Hai ragione quando dici che nulla è casuale in questo ambiente, ma è anche vero che questi scenari sono davvero poco prevedibili in quanto dipendenti da troppi fattori che non rimangono mai del tutto costanti nel tempo (fra cui alcuni che sono proprio imprevedibili a priori come le scelte delle persone)
quando i produttiri di chip grafici hanno iniziato la battaglia per svincolare i loro prodotti dal giogo delle cpu, avevano contro AMD e Intel, la più piccola delle quali era in grado di papparsi tutti in un sol boccone; eppure sono riusciti, con molta fatica, nel loro intento, perchè spalleggiati di MS che voleva vedere affermarsi le proprie API come piattaforma di gioco principale. Adesso la situazione è ben diversa: AMD è passata dall'altra parte e la stessa Intel sta per entrare nel gioco, anzi sta persino rilanciando (l'acquisizione di havock e adesso larrabee) e questo potrebbe far accelerare notevolmente il processo (cosa che non dispiacerebbe neppure a MS).
Non sono d'accordo solo sulla parte in grassetto poiche' i tempi per l'arrivo delle dx10.1 in uno scenario in grande (che significa > di quei 2,3 Giochi) a tal punto da mettere in crisi nvidia nel suo territorio sono talmente lontani da far presagire l'arrivo delle dx11 ancora prima che questo possa iniziare a verificarsi [ricordandoci inoltre che una delle condizione necessarie è che XP dovra' essere morto e sepolto] la battaglia ci sara' ma sul solito terreno prezzo/prestazioni.
basterebbe qualche implementazione "farlocca" tipo il solo supporto al MRT per deferred rendering con FSAA e far vedere che con i chip ATi si può avere il MSAA 4x a costo quasi zero, per mettere in difficoltà nVIDIA e basterebbero pochi titoli, per iniziare, ma di SWH importanti (che non possano subire pressioni o ricatti) ed EA e Blizzard lo sono, per "rompere il muro" e spingere gli altri ad adottare le stesse scelte. Con le dx11 cambia poco o nulla, perchè le stesse feature sono comprese anche in quelle API e una transizione rapida verso le dx11 renderebbe difficile lo smaltimento dei chip della serie GT200 a 65 e 55 nm, poichè costringerebbe nVIDIA a cercare, nei limiti del possibile, di accelerare il passaggio alla nuova architettura. Una delle chiavi per seppellire XP potrebbe anche essere la promessa di poter giocare con i filtri a palla e con una migliore qualità d'immagine, senza perdite prestazionali
Il supporto al crossfire da parte di Intel è palesemente figlio di una decisione politica di Nvidia...se quest'ultima uscisse davvero dal mercato dei chipset, andrebbe subito a corteggiare Intel che contraccambierebbe con passione (scaricando la EX [AMD] tempo zero) inserendo il supporto allo SLI ponendo cosi' le basi per l'inizio di una lunga storia d'amore...
le cpu intel sono di gran lunga le più vendute ed è nell'interesse di AMD e di nVIDIA permettere ad intel di integrare il supporto a crossfire e sli. Il timore di AMD era proprio quello di perdere questa opportunità una volta acquisita ATi; cosa che, stranamente, non si è verificata. Al contrario, nVIDIA, che sta brigando da tempo per avere le licenze pre produrre cpu, ha usato lo sli come arma di ricatto nei confronti di Intel, arma che si è rivelata un boomerang. Allo stato attuale non è Intel ad aver bisogno del supporto allo sli, ma è nVIDIA che avrebbe bisogno che le sue vga fossero supportate anche da chipset intel (solitamente chi compra cpu intel preferisce anche chipset intel, a meno che non voglia farsi il crossfire). Paradossalmente, nVIDIA si ritrova a produrre chipset per la diretta concorrente AMD che già produce i suoi anche con buoni risultati. Questo ha ridotto notevolmente il bacino dei potenziali acquirenti di chipset nVIDIA. Se adesso nVIDIA decide di concedere ad Intel di implementare lo sli nei suoi chipset non avrà in cambio un bel niente, se non la possibilità di vendere qualche chipset in più. Insomma equivale ad una resa e non all'inizio di un sodalizio.
quindi credi che Intel tema un'alleanza AMD/nVidia?
bYeZ!
IMHO non sta facendo nulla per favorirla, anzi.................
Intel è nella posizione di chi può giocare su tutti i tavoli aspettando gli eventi e ritirando le eventuali vincite. Tra le tre, quella in posizione più debole è nVIDIA poichè è l'unica a non avere possibilità, al momento, di espandere il proprio core business. Ci sta provando con physx, ma Intel sembra intenzionata a mettergli i bastoni tra le ruote con havock e larrabee (che, in virtù della sua architettura multicore, non dovrebbe aver problemi a gestire la fisica insiame ad altro, cosa che incìvece risulta più complessa per una gpu (un singolo core può arrivare ad avere un elevato parallelismo in quanto a thread, ma più core fisici permettono di raggiungere anche un più elevato parallelismo nelle istruzioni eseguibili per ogni ciclo). nVIDIA è anche quella che, con più probabilità potrebbe essere oggetto di attacchi da parte di Intel che potrebbe contare sulla attuale debolezza economica di AMD e puntare ad indebolire o eliminare del tutto qualla che economicamente appare meno in difficoltà per lasciarsi come ultima una "bestia ferita".
Ripeto, sono solo scenari di fantasia, d'altra parte è un thread in cui ci si può sbizzarrire avendo, finora, poco di concreto in mano (non sappiamo neppure come dovrebbero essre le rop's o le tmu di questa fantomatica cpu/gpu di Intel), però ci sono alcuni dati concreti che fanno riflettere
IMHO non sta facendo nulla per favorirla, anzi.................
Intel è nella posizione di chi può giocare su tutti i tavoli aspettando gli eventi e ritirando le eventuali vincite. Tra le tre, quella in posizione più debole è nVIDIA poichè è l'unica a non avere possibilità, al momento, di espandere il proprio core business. Ci sta provando con physx, ma Intel sembra intenzionata a mettergli i bastoni tra le ruote con havock e larrabee (che, in virtù della sua architettura multicore, non dovrebbe aver problemi a gestire la fisica insiame ad altro, cosa che incìvece risulta più complessa per una gpu (un singolo core può arrivare ad avere un elevato parallelismo in quanto a thread, ma più core fisici permettono di raggiungere anche un più elevato parallelismo nelle istruzioni eseguibili per ogni ciclo). nVIDIA è anche quella che, con più probabilità potrebbe essere oggetto di attacchi da parte di Intel che potrebbe contare sulla attuale debolezza economica di AMD e puntare ad indebolire o eliminare del tutto qualla che economicamente appare meno in difficoltà per lasciarsi come ultima una "bestia ferita".
Ripeto, sono solo scenari di fantasia, d'altra parte è un thread in cui ci si può sbizzarrire avendo, finora, poco di concreto in mano (non sappiamo neppure come dovrebbero essre le rop's o le tmu di questa fantomatica cpu/gpu di Intel), però ci sono alcuni dati concreti che fanno riflettere
E nell'ottica multiGPU AMD é cmq avvantaggiata, visto il largo supporto al crossfire (chipset intel/amd) e la sua filosofia di nn produrre piu chip video monolitici.
Strano pero, ricordavo che tu stesso avessi definito le GPU come multicore di natura, e adesso le releghi "semplicemente" a soluyioni hyperthreaded? :p
bYeZ!
Se ATI fosse ancora una societa' a se stante, una possibile fuzione ATI-Nvidia in uno scenario cosi' "da aperta battaglia" potrebbe effettivamente essere realistico, ma ora, dopo l'acquisizione di ATI, AMD non credo abbia nemmeno lontanamente l'idea di ricomplicarsi la vita solo "per fare una ripicca alle intenzione di Intel".
Anche perche' ora AMD ha la sua fetta di core business grafico che probabilmente rendera' come avrebbe voluto solo tra n anni. Suicidarsi con l'intenzione di fare nuove spese, beh... credo che Intel non aspetti altro cosi' invece di azzannare una preda si mangia tutti e scacco matto.
Comunque allo stesso modo io non darei Nvidia ancora del tutto azzoppata e pronta per essere acquisita con il piacere degli ex seguaci di 3dfx Inc. Ha gia' ampiamente dimostrato di sapersi arrampicare sull'aria, altro che specchi. Speriamo solo che sappia farsi spazio commercialmente in questo campo minato.
Athlon 64 3000+
06-08-2008, 09:01
Io spero proprio che Nvidia non fallisca(anche se in passato la ho molto criticata per vari motivi) perchè vedendo come è la situazione di AMD se dovesse chiudere anche quest'ultima sarebbe tutti in mano ad Intel e ci sarebbe un supermonopolio sia in ambito cpu che gpu e sarebbe la fine della libera concorrenza.
All'atto pratico Nvidia sta attraversa un momento non felice(cosa che può capitare),ma penso che con la gpu dx11 darà un bella battaglia a AMD.
yossarian
06-08-2008, 12:26
E nell'ottica multiGPU AMD é cmq avvantaggiata, visto il largo supporto al crossfire (chipset intel/amd) e la sua filosofia di nn produrre piu chip video monolitici.
al momento è avvantaggiata; bisognerà vedere quali saranno le future evoluzioni
Strano pero, ricordavo che tu stesso avessi definito le GPU come multicore di natura, e adesso le releghi "semplicemente" a soluyioni hyperthreaded? :p
bYeZ!
vero; parliamo di qualche anno fa, periodo in cui ancora non c'era in ballo il gpu computing (non a questi livelli) e non si era ancora arrivati a prospettare la convergenza tra cpu e gpu. Una gpu ha l'equivalente di più core (addirittura nVIDIA considera G80 un chip a 128 core), però può gestire un solo programma per volta in maniera efficente. Sui diversi core fisici di una cpu puoi farci girare contemporanemante più programmi, anche completamente differenti tra loro. Di fatto ci sono diversi tipi di approccio anche a livello di cpu (il cell, ad esempio, rappresenta un'implementazione ancora differente rispetto ad un dual o ad un quad core di tipi "standard").
Nel complesso, un approccio multicore, a parità di potenza elaborativa, ha sicuramente una flessibilità di utilizzo molto maggiore rispetto al single core.In un'ottica in cui le gpu potrebbero non essere più considerate alla stregua di coprocessori nei confronti delle cpu. Ormai molte gpu sono in grado di fare molte delle operazioni che una volta erano tipiche delel cpu, come ad esempio accedere direttamente alla ram di sistema, gestire i dma, ecc; già con le dx10 ma ancora di più con le 11, proseguire il processo di integrazione di unità di calcolo tipiche delle cpu all'interno delle gpu e questo finirà col rendere ancora più simili i due tipi di processore.
Mister Tarpone
06-08-2008, 12:29
Io spero proprio che Nvidia non fallisca(anche se in passato la ho molto criticata per vari motivi) perchè vedendo come è la situazione di AMD se dovesse chiudere anche quest'ultima sarebbe tutti in mano ad Intel e ci sarebbe un supermonopolio sia in ambito cpu che gpu e sarebbe la fine della libera concorrenza.
All'atto pratico Nvidia sta attraversa un momento non felice(cosa che può capitare),ma penso che con la gpu dx11 darà un bella battaglia a AMD.
concordo.. ;)
Mi iscrivo, la discussione è molto interessante :)
appleroof
06-08-2008, 14:59
cut
altamente improbabile, dal momento che tutti, al momento, MS compresa, vanno in quella direzione; persino nVIDIA sta cercando di farlo e per questo vorrebbe ottenere le licenze x86
cut
emblematica di questa tendenza a "unire" cpu e gpu il fatto che mentre Intel spinge per entrare nel mondo delle vga discrete con una "cpu", Nvidia spinga in senso opposto con Cuda e gpu :D
cmq non pochi sarebbero contenti di liberarsi del sia pur collaudato (ma forse ormai un pò obsoleto) codice x86.....
interessantissimo nel nostro discorso quanto riportato qui, secondo me:
http://www.tgdaily.com/content/view/38750/113/
yossarian
06-08-2008, 17:13
emblematica di questa tendenza a "unire" cpu e gpu il fatto che mentre Intel spinge per entrare nel mondo delle vga discrete con una "cpu", Nvidia spinga in senso opposto con Cuda e gpu :D
perchè Intel quello che sa fare meglio sono le cpu e nVIDIA sa fare solo gpu. Partono da posizioni opposte per arrivare, forse, allo stesso risultato.
cmq non pochi sarebbero contenti di liberarsi del sia pur collaudato (ma forse ormai un pò obsoleto) codice x86.....
forse tutti tranne Intel :D
interessantissimo nel nostro discorso quanto riportato qui, secondo me:
http://www.tgdaily.com/content/view/38750/113/
in effetti larrabee non ha propriamente le caratteristiche tipiche di una gpu: si sa poco o niente delle rop's si sa che avrà delle tmu (e vorei vedere :D ); finora si è posta solo l'attenzione sulla tipologia delle unità di matematiche e sul ring di connessione tra i core. Messa così, questi discorsi potrebbero essere riferiti a qualunque cosa che non sia necessariamente una gpu. Inoltre, rispetto ad una gpu, tutto si può dire fuorchè che sia pesantemente multithreaded (lo è, magari, rispetto ad una cpu).
Che Intel spinga anche su altri fronti e non solo quello grafico è, quindi, un dato di fatto ed è probabile che voglia sfondare usando come cavallo di troia un processore GP mascherato da gpu.
Ridicole le critiche mosse a CUDa per un semplice motivo: CUDA non è un'invenzione di nVIDIA ma l'adattamento per le proprie gpu di un esistente compilatore anche piuttosto flessibile (tanto che ne esiste anche una versione per Itanium che è vliw e una per l'architettura I32, quindi Intel lo sa bene e tanto che con qualche modifica si adatterebbe a girare anche su gpu ATi)
appleroof
06-08-2008, 17:50
perchè Intel quello che sa fare meglio sono le cpu e nVIDIA sa fare solo gpu. Partono da posizioni opposte per arrivare, forse, allo stesso risultato.
forse tutti tranne Intel :D
in effetti larrabee non ha propriamente le caratteristiche tipiche di una gpu: si sa poco o niente delle rop's si sa che avrà delle tmu (e vorei vedere :D ); finora si è posta solo l'attenzione sulla tipologia delle unità di matematiche e sul ring di connessione tra i core. Messa così, questi discorsi potrebbero essere riferiti a qualunque cosa che non sia necessariamente una gpu. Inoltre, rispetto ad una gpu, tutto si può dire fuorchè che sia pesantemente multithreaded (lo è, magari, rispetto ad una cpu).
Che Intel spinga anche su altri fronti e non solo quello grafico è, quindi, un dato di fatto ed è probabile che voglia sfondare usando come cavallo di troia un processore GP mascherato da gpu.
Ridicole le critiche mosse a CUDa per un semplice motivo: CUDA non è un'invenzione di nVIDIA ma l'adattamento per le proprie gpu di un esistente compilatore anche piuttosto flessibile (tanto che ne esiste anche una versione per Itanium che è vliw e una per l'architettura I32, quindi Intel lo sa bene e tanto che con qualche modifica si adatterebbe a girare anche su gpu ATi)
quoto...tutto :D
appleroof
07-08-2008, 10:57
Intanto Amd pare continuare a fare la preziosa nei confronti di Nvidia, snobbando Cuda (e qualsiasi altra soluzione proprietaria, compresa la propria :D ) e puntando su dx11 e opencl per il gpgpu (evidentemente riflessi si avrebbero anche nel gaming....)
In his speech GPG CTO Technology Day held in Iceland’s capital, Raja Koduri, CTO of AMD GPG (ex-ATI), announced that AMD believes that the time for proprietary software solutions such as AMD's own Close-to-Metal and Nvidia's CUDA has passed.
http://www.tgdaily.com/content/view/38764/140/
mah...io vedo sempre più Intel leccarsi i baffi....
Kharonte85
07-08-2008, 11:07
Intanto Amd pare continuare a fare la preziosa nei confronti di Nvidia, snobbando Cuda (e qualsiasi altra soluzione proprietaria, compresa la propria :D ) e puntando su dx11 e opencl per il gpgpu (evidentemente riflessi si avrebbero anche nel gaming....)
In his speech GPG CTO Technology Day held in Iceland’s capital, Raja Koduri, CTO of AMD GPG (ex-ATI), announced that AMD believes that the time for proprietary software solutions such as AMD's own Close-to-Metal and Nvidia's CUDA has passed.
http://www.tgdaily.com/content/view/38764/140/
mah...io vedo sempre più Intel leccarsi i baffi....
tanto il vero "standard" lo decideranno le nuove console...fino a che non ci lasceremo alle spalle le limitazioni dei giochi multi-piattaforma (e visto che la direzione è quella c'è poco da sperare) non vedremo granche' di innovativo se non sulla "carta"
Fossi in nvidia cercherei di "pasturare" con PhysX per la prossima console sony...potrebbe essere la mossa vincente...
appleroof
07-08-2008, 12:13
tanto il vero "standard" lo decideranno le nuove console...fino a che non ci lasceremo alle spalle le limitazioni dei giochi multi-piattaforma (e visto che la direzione è quella c'è poco da sperare) non vedremo granche' di innovativo se non sulla "carta"
Fossi in nvidia cercherei di "pasturare" con PhysX per la prossima console sony...potrebbe essere la mossa vincente...
si dal punto di vista gaming hai perfettamente ragione, il discorso è che Nvidia ed Intel e Amd puntano al GPGPU a 360°.....
tanto il vero "standard" lo decideranno le nuove console...fino a che non ci lasceremo alle spalle le limitazioni dei giochi multi-piattaforma (e visto che la direzione è quella c'è poco da sperare) non vedremo granche' di innovativo se non sulla "carta"
Fossi in nvidia cercherei di "pasturare" con PhysX per la prossima console sony...potrebbe essere la mossa vincente...
Per le principali limitazioni devi ringraziare PS3 ;)
appleroof
07-08-2008, 12:53
Per le principali limitazioni devi ringraziare PS3 ;)
:wtf:
:wtf:
Per l'hardware grafico che monta, è un derivato di G71 dovresti saperlo. ;)
Stanno programmando i giochi di oggi su un'architettura di tre anni fa.
Invece l'Xbox 360 è leggermente più avanti su questo lato, e possiede feature che hanno le schede odierne (shader unificati) e feature che non hanno tutte le schede odierne (hw tesselation), in più la possibilità di far calcolare il geomtry shader dalla CPU (ma questo credo che pure Cell lo possa fare).
yossarian
07-08-2008, 13:06
Intanto Amd pare continuare a fare la preziosa nei confronti di Nvidia, snobbando Cuda (e qualsiasi altra soluzione proprietaria, compresa la propria :D ) e puntando su dx11 e opencl per il gpgpu (evidentemente riflessi si avrebbero anche nel gaming....)
In his speech GPG CTO Technology Day held in Iceland’s capital, Raja Koduri, CTO of AMD GPG (ex-ATI), announced that AMD believes that the time for proprietary software solutions such as AMD's own Close-to-Metal and Nvidia's CUDA has passed.
http://www.tgdaily.com/content/view/38764/140/
mah...io vedo sempre più Intel leccarsi i baffi....
tanto il vero "standard" lo decideranno le nuove console...fino a che non ci lasceremo alle spalle le limitazioni dei giochi multi-piattaforma (e visto che la direzione è quella c'è poco da sperare) non vedremo granche' di innovativo se non sulla "carta"
Fossi in nvidia cercherei di "pasturare" con PhysX per la prossima console sony...potrebbe essere la mossa vincente...
della serie avremo giochi dx10 o dx11 a seconda che la prossima console MS adotti le une o le altre :D
Mister Tarpone
07-08-2008, 13:08
Per le principali limitazioni devi ringraziare PS3 ;)
no no. devi ringraziare pure la Xbox360 ;)
Foglia Morta
07-08-2008, 13:13
Forse sta venendo fuori il motivo per cui nVidia è entrata a far parte del consorzio SOI , guardate sto thread :
http://forum.beyond3d.com/showthread.php?t=49362
no no. devi ringraziare pure la Xbox360 ;)
Leggi meglio sopra. ;)
Ovvio che anche la 360 ha la sua parte, ma il suo hardware è molto più vicino a quello DX10 (e in certi versi lo supera pure) di quello di PS3.
Ovvio che quando ci sono titoli multipiatta PS3/360/PC è ovvio che tutto viene castrato per la "inferiore" delle tre. ;)
appleroof
07-08-2008, 13:22
Leggi meglio sopra. ;)
Ovvio che anche la 360 ha la sua parte, ma il suo hardware è molto più vicino a quello DX10 (e in certi versi lo supera pure) di quello di PS3.
Ovvio che quando ci sono titoli multipiatta PS3/360/PC è ovvio che tutto viene castrato per la "inferiore" delle tre. ;)
è pur sempre un chip dx9
yossarian
07-08-2008, 14:08
Forse sta venendo fuori il motivo per cui nVidia è entrata a far parte del consorzio SOI , guardate sto thread :
http://forum.beyond3d.com/showthread.php?t=49362
questo potrebbe significare che ha abbandonato sia la pista Intel che quella VIA. Di fatto da Intel è stata scaricata, ma non sono sicuro che abbia abbandonato la pista VIA; questa potrebbe essere una mossa per far abbassare il valore della contopartita che VIA potrebbe chiedere
è pur sempre un chip dx9
è qualcosa si più di un chip dx9 ma non si può considerare dx10 :D
appleroof
07-08-2008, 14:20
è qualcosa si più di un chip dx9 ma non si può considerare dx10 :D
giusto, ma non si può addossare il ritardo dell'adozione delle dx10 nei giochi per pc esclusivamente all'hw sony, perchè anche quello della xbox è dx9 (e 1/2, ok, ma non appunto dx10)
yossarian
07-08-2008, 14:37
giusto, ma non si può addossare il ritardo dell'adozione delle dx10 nei giochi per pc esclusivamente all'hw sony, perchè anche quello della xbox è dx9 (e 1/2, ok, ma non appunto dx10)
no, è un ritardo fisiologico che le console hanno contribuito ad acuire. I primi engine full dx9 (o quasi) sono arrivati quando era pronta la generazione di vga dx10; lo stesso avverrà in questo caso con, magari un po' più di ritardo per i vari porting o engine multipiatta.
Foglia Morta
07-08-2008, 14:38
questo potrebbe significare che ha abbandonato si la pista Intel che quella VIA. Di fatto da Intel è stata scaricata, ma non sono sicuro che abbia abbandonato la pista VIA; questa potrebbe essere una mossa per far abbassare il valore della contopartita che VIA potrebbe chiedere
Ma VIA come gli potrebbe essere utile ? Avevo letto che non può cedere la licenza X86 e che se fosse acquisita automaticamente avrebbe perso la licenza. Una partnership VIA - nVidia sarebbe ugualmente castrata perchè Nano è un processore adatto ad un mercato di nicchia come la sua quota di mercato ( concorrente di Atom ) e per conto suo VIA non penso possa progettare una cpu degna rivale dei processori Intel e AMD ( IMO non ha le risorse , e neanche le fonderie credo )
Kharonte85
07-08-2008, 14:40
giusto, ma non si può addossare il ritardo dell'adozione delle dx10 nei giochi per pc esclusivamente all'hw sony, perchè anche quello della xbox è dx9 (e 1/2, ok, ma non appunto dx10)
pur riconoscendo un comparto grafico superiore nell' Xbox360 sono state certamente limitanti entrambe se messe a confronto con l'hardware da g80 e r600 in poi...
della serie avremo giochi dx10 o dx11 a seconda che la prossima console MS adotti le une o le altre :D
Speriamo che scelgano le dx11 a questo punto...:D
giusto per dare una scossettina alla grafica e magari anche alla fisica [non chiedo la Luna, ma almeno che una fisica tipo quella di Crysis divenga uno standard sui futuri FPS] :sperem:
Kharonte85
07-08-2008, 14:45
no, è un ritardo fisiologico che le console hanno contribuito ad acuire. I primi engine full dx9 (o quasi) sono arrivati quando era pronta la generazione di vga dx10; lo stesso avverrà in questo caso con, magari un po' più di ritardo per i vari porting o engine multipiatta.
ragion per cui credo che le dx10.1 nello scontro AMD/ATI Vs Nvidia non saranno per nulla decisive...
giusto, ma non si può addossare il ritardo dell'adozione delle dx10 nei giochi per pc esclusivamente all'hw sony, perchè anche quello della xbox è dx9 (e 1/2, ok, ma non appunto dx10)
Forse sono stato frainteso :stordita: non intendevo addossare tutta la colpa a sony, ma la maggiorparte della colpa. :D
appleroof
07-08-2008, 15:17
no, è un ritardo fisiologico che le console hanno contribuito ad acuire. I primi engine full dx9 (o quasi) sono arrivati quando era pronta la generazione di vga dx10; lo stesso avverrà in questo caso con, magari un po' più di ritardo per i vari porting o engine multipiatta.
hai ragione, ma era esattamente quello che intendevo evidentemente mi sono espresso male (ovviamente la "colpa" non è delle consolle in sè, che c'erano pure prima, ma del fatto che produrre giochi per consolle è diventato ormai enormemente più remunerativo che produrli esclusivamente per pc)
Forse sono stato frainteso :stordita: non intendevo addossare tutta la colpa a sony, ma la maggiorparte della colpa. :D
questo post mi sembra inequivocabile :boh:
Per le principali limitazioni devi ringraziare PS3 ;)
cmq l'hw di una consolle non si ferma al chip grafico, che gioca ovviamente un ruolo chiave perchè deputata (per ora) essenzialmente a far videogiocare
in ogni caso, anche se avessimo avuto solo la xbox 360, il ritardo che c'è per quanto riguarda i giochi "full dx10" sarebbe stato uguale: non ha hw dx10, per cui siamo sempre lì, fermo restando che se setti un gioco per farlo andare sulla consolle meno potente (ps3, nel tuo discorso, ma non sono d'accordo :D) nulla toglie che nelle versioni di quel motore per le altre piattaforme (xbox, pc) esso possa essere settato al massimo delle sue potenzialità,
il problema del ritardo è che sia xbox che ps3, a pari "merito" :D , hanno hw dx9.
yossarian
07-08-2008, 15:17
Ma VIA come gli potrebbe essere utile ? Avevo letto che non può cedere la licenza X86 e che se fosse acquisita automaticamente avrebbe perso la licenza. Una partnership VIA - nVidia sarebbe ugualmente castrata perchè Nano è un processore adatto ad un mercato di nicchia come la sua quota di mercato ( concorrente di Atom ) e per conto suo VIA non penso possa progettare una cpu degna rivale dei processori Intel e AMD ( IMO non ha le risorse , e neanche le fonderie credo )
potrebbe fare né più né meno quello che potrebbe fare transmeta, ovvero dare la possibilità a nVIDIA di sfruttare la licenza x86 senza cederla e senza essere acquisita. Ad nVIDIA non serve progettare una cpu ma implementare in una gpu parte dell'architettura x86 (possibilelmente non emulata).
ragion per cui credo che le dx10.1 nello scontro AMD/ATI Vs Nvidia non saranno per nulla decisive...
invece lo saranno nella misura in cui le dx10.1 permettono degli incrementi prestazionali di rilievo (la stessa cosa non si è verificata nel passaggio tra dx8 e dx9 dove l'unica feature che poteva dare vantaggi prestazionali era il vertex texturing, con molte ottimizzazioni che venivano spostate a livello di vertex shader, di cui si è persa traccia proprio con l'arrivo delle vga dx10)
yossarian
07-08-2008, 15:21
hai ragione, ma era esattamente quello che intendevo evidentemente mi sono espresso male (ovviamente la "colpa" non è delle consolle in sè, che c'erano pure prima, ma del fatto che produrre giochi per consolle è diventato ormai enormemente più remunerativo che produrli esclusivamente per pc)
ormai il trend è produrre giochi per il maggior numero di piattaforme possibili, poichè lo scopo di chi fa VG è quello di vendere. Poichè di piattaforme ne esistono tante e molto diverse tra loro, allora si deve fare in modo che possano girare decentemente su tutte e, di conseguenza, ci si basa su quelle meno dotate (e poi si a"appiccicano" sopra effetti speciali per gratificare chi ha speso centinaia di euro per HW più avanzato, con l'effetto, in alcuni casi, di appesantire il gioco all'inverosimile)
appleroof
07-08-2008, 15:25
ormai il trend è produrre giochi per il maggior numero di piattaforme possibili, poichè lo scopo di chi fa VG è quello di vendere. Poichè di piattaforme ne esistono tante e molto diverse tra loro, allora si deve fare in modo che possano girare decentemente su tutte e, di conseguenza, ci si basa su quelle meno dotate (e poi si a"appiccicano" sopra effetti speciali per gratificare chi ha speso centinaia di euro per HW più avanzato, con l'effetto, in alcuni casi, di appesantire il gioco all'inverosimile)
esatto, ma hai sbagliato a quotare la part del mio post, dovevi quotare la parte finale dove dico esattamente la stessa cosa :D
il fatto poi che produrre per consolle è più remunerativo, è dovuto anche e sopratutto alla pirateria dei giochi per pc, non è solo questione tecnica
Kharonte85
07-08-2008, 15:45
invece lo saranno nella misura in cui le dx10.1 permettono degli incrementi prestazionali di rilievo (la stessa cosa non si è verificata nel passaggio tra dx8 e dx9 dove l'unica feature che poteva dare vantaggi prestazionali era il vertex texturing, con molte ottimizzazioni che venivano spostate a livello di vertex shader, di cui si è persa traccia proprio con l'arrivo delle vga dx10)
Infatti lo saranno in misura minima...:D
I vantaggi saranno SOLO con filtraggio attivo (il miglioramento qualitativo pressoche' nullo) e per quello che si sa oggi nell'ordine del 20% su tutti i sistemi dotati di Vista e SP1 + schede AMD (cioè la minoranza) il tutto con giochi che non vedremo prima di 1-2 anni...mentre di tessellation probabilmente ne riparleremo con dx11
Nessuno mette in dubbio le possibilità di sviluppo sulla carta, ma il fatto è semplicemente che arriveranno troppo tardi, in pochi titoli, quando avremo schede diverse da quelle di oggi e avremo altri problemi; bel vantaggio...:fagiano:
ed anche in questo caso le console faranno da freno...
comunque il bello del forum è che fra un paio d'anni potremo tornare a guardare la discussione e vedere chi ci ha azzeccato di piu' sia sulla storia di Larrabee che della sorte di AMD e Nvidia...:D
PS: scommetiamo che avremo ancora la nostra bella GPU discreta ed il nostro processore, altro che GPGPUGPCPUCPGPUPC...:sofico:
yossarian
07-08-2008, 16:30
Infatti lo saranno in misura minima...:D
I vantaggi saranno SOLO con filtraggio attivo
non esattamente; con filtraggio attivo ci sarà circa un 25% di vantaggio in caso di MSAA box filter dovuto all'utilizzo di MRT. Ci saranno altresì vantaggi derivanti dall'utilizzo di algoritmi di AA con resolve via shader; in questo caso il vantaggio sarà di natura diversa: mentre con il MSAA box filter il 25% si avrà in più rispetto alle attuali prestazioni di rv670 e rv770, con AA di tipo custom si avrà di fatto un calo di prestazioni sia per ATi che per nVIDIA, più marcato per la seconda però in misura dipendente dal tipo di algoritmo utilizzato.
Altri miglioramenti prstazionali si avranno in ambiti differenti; ad esempio una miglior gestione della global illumination grazie all'adozione di cube map array (questo porterà anche a vantaggi di tipo qualitativo); un aumento del numero di vertex shader in input e in output (si passerà da 16 a 32 valori a 128 per shader); possibilità di utilizzare blocchi di 2x2 texture al posto di una singola texture con vantaggi qualitativi (nella gestione delle ombre e possibilità di implementare ordini di filtraggio superiori al primo) e velocistici (maggior velocità nel calcolo del procedural noise e incrementi nelle operazioin di stream computing); nuova istruzione per il LoD (possibilità di fare texture filtering di tipo custom con algoritmi di ordine superiore al primo e risultati migliori dal punot di vista qualitativo e maggior velocità nel parallax occlusion mapping). Multi sample buffer read and write e pixel coverage mask (in pratica, il primo permette l'utilizzo di più render target direttamente accessibili dallo shader core e il secondo abilita l'utilizzo di AA di tipo custom); i risultati sono molteplici (da una miglior gestione dell'AA con HDR, alla velocizzazione delle operazioni con adaptive AA, ad una miglior gestione di forme di edge antialiasing di tipo custom con ottimizzazione della banda passante, ad una maggior qualità in alcuni effetti di post processing)
(il miglioramento qualitativo pressoche' nullo) e per quello che si sa oggi nell'ordine del 20% su tutti i sistemi dotati di Vista e SP1 + schede AMD (cioè la minoranza) il tutto con giochi che non vedremo prima di 1-2 anni...mentre di tessellation probabilmente ne riparleremo con dx11
miglioramenti qualitativi, oltre a quelli elencati sopra (che già di per sé sono non di poco conto e verranno implementati anche nelle dx11), si avranno anche in virtù del fatto che: sarà richiesto l'utilizzo di fp32 per le operazioni di filtraggio, il blending a INT16 non sarà più opzionale ma obbligatorio, si adptterà il MSAA 4x sia per il formato a 32 che per quello a 64 bit, aumenta la precisione nelle operazioni in fp.
Complessivamente, si va ben oltre, dal putno di vista prestazionale, rispetto al 24% circa riscontrato con il solo utilizzo di MSAA 4x box filter.
Per quanto riguarda la tessellation è scontato che ormai sarà inserita nelle dx11; ma di carne al fuoco ce n'è abbastanza anche con lew 10.1 :D
Nessuno mette in dubbio le possibilità di sviluppo sulla carta, ma il fatto è semplicemente che arriveranno troppo tardi, in pochi titoli, quando avremo schede diverse da quelle di oggi e avremo altri problemi; bel vantaggio...:fagiano:
già oggi basta implementare l'utilizzo di MRT per MSAA box filter (e si può fare anche su engine DX9 come l'UE3). Che poi arrivino quando ci saranno già altre vga, magari dx10.1 o, addirittura, dx11, non inficia il fatto che le attuali gpu dx10.1 godranno di benefici, prestazionali e qualitativi, che le attuali gpu dx10 non avranno
ed anche in questo caso le console faranno da freno...
probabile, però, ripeto, su engone DX9 o misti dx8/dx9 di tipo deferred rendering (stalker e i titoli basati su UE3, ad esempio) è giù implementabile il MRT per color e z-ops; basta quello a fare la differenza :D
comunque il bello del forum è che fra un paio d'anni potremo tornare a guardare la discussione e vedere chi ci ha azzeccato di piu' sia sulla storia di Larrabee che della sorte di AMD e Nvidia...:D
PS: scommetiamo che avremo ancora la nostra bella GPU discreta ed il nostro processore, altro che GPGPUGPCPUCPGPUPC...:sofico:
tra un paio di anni è ancora presto perchè avvengano sconvolgimenti; sicuramente qualcosa si sta muovendo e lo farà sempre più velocemente.
In quanto a noi e alla nostra presenza sul forum, un paio di anni è un tempo piuttosto lungo per fare previsioni
questo post mi sembra inequivocabile :boh:
cmq l'hw di una consolle non si ferma al chip grafico, che gioca ovviamente un ruolo chiave perchè deputata (per ora) essenzialmente a far videogiocare
in ogni caso, anche se avessimo avuto solo la xbox 360, il ritardo che c'è per quanto riguarda i giochi "full dx10" sarebbe stato uguale: non ha hw dx10, per cui siamo sempre lì, fermo restando che se setti un gioco per farlo andare sulla consolle meno potente (ps3, nel tuo discorso, ma non sono d'accordo :D) nulla toglie che nelle versioni di quel motore per le altre piattaforme (xbox, pc) esso possa essere settato al massimo delle sue potenzialità,
il problema del ritardo è che sia xbox che ps3, a pari "merito" :D , hanno hw dx9.
Alt io mica ho detto che PS3 è la meno potente, ho detto che è quella che ha meno feature, e che quindi nel caso dei titoli multipiatta, è quella che frena di più l'uso di effetti migliori. ;)
R500 è essenzialmente una GPU DX9, ma che presenta caratteristiche esclusive delle DX10 e altre che le superano.
Molto più avanzata di un G71 castrato che non può nemmeno fare AA con HDR (infatti mi sembra si usino artifici vari per ottenere un risultato simile, facendo partecipare anche il Cell mi pare).
che poi la potenza finale sia simile, è tutt'altra cosa.
Mister Tarpone
07-08-2008, 18:10
vabbè...
cmq a me sembra che anche la ps3 con quel G71 castrato riesca a fare dei giochi graficamente spettacolari e pieni zeppi di effetti...
vedi metal gear solid 4, Raket and Clank, uncharted, Killzone 2 ecc...
peccato che non sono molti i giochi che la spremono come si deve...
...se sviluppassero + titoli appositamente per l'hw ps3 invece di fare sempre conversioni da xbox360 forse sarebbe meglio.
Kharonte85
07-08-2008, 18:23
non esattamente; con filtraggio attivo ci sarà circa un 25% di vantaggio in caso di MSAA box filter dovuto all'utilizzo di MRT. Ci saranno altresì vantaggi derivanti dall'utilizzo di algoritmi di AA con resolve via shader; in questo caso il vantaggio sarà di natura diversa: mentre con il MSAA box filter il 25% si avrà in più rispetto alle attuali prestazioni di rv670 e rv770, con AA di tipo custom si avrà di fatto un calo di prestazioni sia per ATi che per nVIDIA, più marcato per la seconda però in misura dipendente dal tipo di algoritmo utilizzato.
Altri miglioramenti prstazionali si avranno in ambiti differenti; ad esempio una miglior gestione della global illumination grazie all'adozione di cube map array (questo porterà anche a vantaggi di tipo qualitativo); un aumento del numero di vertex shader in input e in output (si passerà da 16 a 32 valori a 128 per shader); possibilità di utilizzare blocchi di 2x2 texture al posto di una singola texture con vantaggi qualitativi (nella gestione delle ombre e possibilità di implementare ordini di filtraggio superiori al primo) e velocistici (maggior velocità nel calcolo del procedural noise e incrementi nelle operazioin di stream computing); nuova istruzione per il LoD (possibilità di fare texture filtering di tipo custom con algoritmi di ordine superiore al primo e risultati migliori dal punot di vista qualitativo e maggior velocità nel parallax occlusion mapping). Multi sample buffer read and write e pixel coverage mask (in pratica, il primo permette l'utilizzo di più render target direttamente accessibili dallo shader core e il secondo abilita l'utilizzo di AA di tipo custom); i risultati sono molteplici (da una miglior gestione dell'AA con HDR, alla velocizzazione delle operazioni con adaptive AA, ad una miglior gestione di forme di edge antialiasing di tipo custom con ottimizzazione della banda passante, ad una maggior qualità in alcuni effetti di post processing)
miglioramenti qualitativi, oltre a quelli elencati sopra (che già di per sé sono non di poco conto e verranno implementati anche nelle dx11), si avranno anche in virtù del fatto che: sarà richiesto l'utilizzo di fp32 per le operazioni di filtraggio, il blending a INT16 non sarà più opzionale ma obbligatorio, si adptterà il MSAA 4x sia per il formato a 32 che per quello a 64 bit, aumenta la precisione nelle operazioni in fp.
Complessivamente, si va ben oltre, dal putno di vista prestazionale, rispetto al 24% circa riscontrato con il solo utilizzo di MSAA 4x box filter.
Per quanto riguarda la tessellation è scontato che ormai sarà inserita nelle dx11; ma di carne al fuoco ce n'è abbastanza anche con lew 10.1 :D
già oggi basta implementare l'utilizzo di MRT per MSAA box filter (e si può fare anche su engine DX9 come l'UE3). Che poi arrivino quando ci saranno già altre vga, magari dx10.1 o, addirittura, dx11, non inficia il fatto che le attuali gpu dx10.1 godranno di benefici, prestazionali e qualitativi, che le attuali gpu dx10 non avranno
probabile, però, ripeto, su engone DX9 o misti dx8/dx9 di tipo deferred rendering (stalker e i titoli basati su UE3, ad esempio) è giù implementabile il MRT per color e z-ops; basta quello a fare la differenza :D
tra un paio di anni è ancora presto perchè avvengano sconvolgimenti; sicuramente qualcosa si sta muovendo e lo farà sempre più velocemente.
In quanto a noi e alla nostra presenza sul forum, un paio di anni è un tempo piuttosto lungo per fare previsioni
Come ho gia' detto non si discute sulle potenzialità, ma il fatto è che secondo me tutte queste belle feauteres [escluso forse l'AA via shader] rimarranno sulla carta (non prima delle dx11 o di una eventuale risposta di nvidia e dell'uscita di windows 7) e poi fra 1-2 anni vedremo chi avra' avuto ragione, potrei anche sbagliarmi ma questa è la sensazione che ho ora e al momento non vedo giri di boa all'orizzonte
Non concordo, e niente puo' farmi cambiare idea ora [ma ovviamente capisco e in parte condivido le tue speranze :) ], sul fatto che le dx10.1 rappresentino un chiaro vantaggio delle schede AMD su quelle nvidia (si valutano altri aspetti molto piu' importanti [prezzo/prestazioni/consumi] e non è certo per questo che AMD avra' successo e Nvidia andra' in rovina), tanto piu' che oggi tutte le schede video si possono scegliere e considerare in base alle sole prestazioni in dx9 [dato che nemmeno esistono giochi totalmente Dx10]
C'è un certo conservatorismo nel mondo dell'informatica con cui anche progetti ambiziosi come quelli di Intel con Larrabee dovranno fare i conti.
Da quando è uscita la notizia di Larrabee stavo anche riflettendo sugli scenari futuri possibili (piu' per gioco che per ambizioni divinatorie :p ) e a dire il vero credo che non sia possibile la strada dell'integrazione totale fra CPU e GPU nemmeno fra 10 anni :D dopotutto prima o poi la riduzione del processo produttivo porra' dei limiti fisici all'integrazione; quindi non so quanto valga la pena andare verso un'integrazione per poi tornare a lavorare con PC grossi come delle stanze (per componente :asd:) :sofico: ovviamente esagero pero' non credo che la strada di intel possa avere cosi' vita facile (sul lato GPU)...poi quando sara' uscito larrabee faremo meglio i conti anche perche' mi pare che ci sia ancora una fitta coltre di fumo un po' in tutte le direzioni...
Alla fine per ora abbiamo solo ambizioni, da una parte GPU che vorrebbero fare anche le CPU (ATI e Nvidia) dall'altra CPU che vorrebbero fare GPU (intel con Larrabee) risultati al momento pochi o nulli se escludiamo qualche tech demo scritta appositamente (vedere la fisica di nvidia) le cose potrebbero cambiare come anche no...:stordita:
Potrebbe (quello che sta avvenendo) essere che ci sara' un' invasione di campo da parte di un po' tutti ma credo che alla fine le cose non cambieranno poi molto e che salvo imprevisti, che nessuno si augura, tutte e tre (4, se consideriamo ATI ancora entita' separata) queste aziende continuino a fare quello che fanno oggi.
Bon, la mia previsione l'ho fatta...sotto con le scomesse!!! :O :D
appleroof
07-08-2008, 18:29
Come ho gia' detto non si discute sulle potenzialità, ma il fatto è che secondo me tutte queste belle feauteres [escluso forse l'AA via shader] rimarranno sulla carta (non prima delle dx11 o di una eventuale risposta di nvidia e dell'uscita di windows 7) e poi fra 1-2 anni vedremo chi avra' avuto ragione, potrei anche sbagliarmi ma questa è la sensazione che ho ora e al momento non vedo giri di boa all'orizzonte
Non concordo, e niente puo' farmi cambiare idea ora [ma ovviamente capisco e in parte condivido le tue speranze :) ], sul fatto che le dx10.1 rappresentino un chiaro vantaggio delle schede AMD su quelle nvidia (si valutano altri aspetti molto piu' importanti [prezzo/prestazioni/consumi] e non è certo per questo che AMD avra' successo e Nvidia andra' in rovina), tanto piu' che oggi tutte le schede video si possono scegliere e considerare in base alle sole prestazioni in dx9 [dato che nemmeno esistono giochi totalmente Dx10]
C'è un certo conservatorismo nel mondo dell'informatica con cui anche progetti ambiziosi come quelli di Intel con Larrabee dovranno fare i conti.
Da quando è uscita la notizia di Larrabee stavo anche riflettendo sugli scenari futuri possibili (piu' per gioco che per ambizioni divinatorie :p ) e a dire il vero credo che non sia possibile la strada dell'integrazione totale fra CPU e GPU nemmeno fra 10 anni :D dopotutto prima o poi la riduzione del processo produttivo porra' dei limiti fisici all'integrazione; quindi non so quanto valga la pena andare verso un'integrazione per poi tornare a lavorare con PC grossi come delle stanze (per componente :asd:) :sofico: ovviamente esagero pero' non credo che la strada di intel possa avere cosi' vita facile (sul lato GPU)...poi quando sara' uscito larrabee faremo meglio i conti anche perche' mi pare che ci sia ancora una fitta coltre di fumo un po' in tutte le direzioni...
Alla fine per ora abbiamo solo ambizioni, da una parte GPU che vorrebbero fare anche le CPU (ATI e Nvidia) dall'altra CPU che vorrebbero fare GPU (intel con Larrabee) risultati al momento pochi o nulli se escludiamo qualche tech demo scritta appositamente (vedere la fisica di nvidia) le cose potrebbero cambiare come anche no...:stordita:
Potrebbe (quello che sta avvenendo) essere che ci sara' un' invasione di campo da parte di un po' tutti ma credo che alla fine le cose non cambieranno poi molto e che salvo imprevisti, che nessuno si augura, tutte e tre (4, se consideriamo ATI ancora entita' separata) queste aziende continuino a fare quello che fanno oggi.
Bon, la mia previsione l'ho fatta...sotto con le scomesse!!! :O :D
io scommetto che ti sbagli :D :D
vabbè...
cmq a me sembra che anche la ps3 con quel G71 castrato riesca a fare dei giochi graficamente spettacolari e pieni zeppi di effetti...
vedi metal gear solid 4, Raket and Clank, uncharted, Killzone 2 ecc...
peccato che non sono molti i giochi che la spremono come si deve...
...se sviluppassero + titoli appositamente per l'hw ps3 invece di fare sempre conversioni da xbox360 forse sarebbe meglio.
esatto, era quello che intendevo dire, insieme al fatto che però, essendo g71 e r500 dx9, i motori grafici sono giocoforza dx9, ed essendo la maggior parte dei giochi sviluppati per consolle e poi per pc, di giochi dx10 se ci va bene li cominciamo a vedere quando escono le dx11 :D(se non addirittura le prox consolle dx11 :D :D)
Kharonte85
07-08-2008, 18:37
peccato che non sono molti i giochi che la spremono come si deve...
...se sviluppassero + titoli appositamente per l'hw ps3 invece di fare sempre conversioni da xbox360 forse sarebbe meglio.
Non credo proprio, se si parla di grafica pura il chip Grafico dell' Xbox 360 è palesemente superiore, è decisamente un bene per noi PCisti se le conversioni avvengono da Xbox360...che poi i risultati siano altalenanti e che la resa finale anche su PS3 sia molto simile è un'altro discorso; entrambe le console rappresentano dei chiari limiti allo sviluppo della grafica videoludica su PC (anche perche' in pratica SONO dei PC :asd: che pero' non si aggiornano :D )
io scommetto che ti sbagli :D :D
:D
Puo' essere (anzi con la fortuna che mi ritrovo perderei sicuro :asd:), magari fra 5 anni Nvidia si da ai Gelati o ai Phon e AMD alla conquista spaziale...:sofico: per i piu' attenti: c'è gia' stata qualche avvisaglia :asd:
appleroof
07-08-2008, 18:39
cut
:D
Puo' essere (anzi con la fortuna che mi ritrovo perderei sicuro :asd:), magari fra 5 anni Nvidia si da ai Gelati o ai Phon e AMD alla conquista spaziale...:sofico: per i piu' attenti: c'è gia' stata qualche avvisaglia :asd:
:D
yossarian
07-08-2008, 18:43
Come ho gia' detto non si discute sulle potenzialità, ma il fatto è che secondo me tutte queste belle feauteres [escluso forse l'AA via shader] rimarranno sulla carta (non prima delle dx11 o di una eventuale risposta di nvidia e dell'uscita di windows 7) e poi fra 1-2 anni vedremo chi avra' avuto ragione, potrei anche sbagliarmi ma questa è la sensazione che ho ora e al momento non vedo giri di boa all'orizzonte
più facile che si implementi prima l'utilizzo di MRT per l'AA box filter che non il resolve via shader. Anzi, questa è la soluzione naturale per giochi (anche dx9) che usano MSAA box filter e deferred rendering, mentre l'utilizzo di render to texture (come impongono le dx10 e come fanno i chip NV) è solo una pezza messa li per permettere di utilizzare illuminazione dinamica e MSAA contemporaneamente.
Non concordo, e niente puo' farmi cambiare idea ora [ma ovviamente capisco e in parte condivido le tue speranze :) ], sul fatto che le dx10.1 rappresentino un chiaro vantaggio delle schede AMD su quelle nvidia (si valutano altri aspetti molto piu' importanti [prezzo/prestazioni/consumi] e non è certo per questo che AMD avra' successo e Nvidia andra' in rovina), tanto piu' che oggi tutte le schede video si possono scegliere e considerare in base alle sole prestazioni in dx9 [dato che nemmeno esistono giochi totalmente Dx10]
come ripeto il MRT si può utilizzare anche con engine dx9 (ac docet) e da risultati immediati da subito: non è una speranza, ma una certezza. Forse la speranza è da parte dei fan nVIDIA sul fatto che non venga supportato dalle SWHouse. :D
C'è un certo conservatorismo nel mondo dell'informatica con cui anche progetti ambiziosi come quelli di Intel con Larrabee dovranno fare i conti.
Da quando è uscita la notizia di Larrabee stavo anche riflettendo sugli scenari futuri possibili (piu' per gioco che per ambizioni divinatorie :p ) e a dire il vero credo che non sia possibile la strada dell'integrazione totale fra CPU e GPU nemmeno fra 10 anni :D dopotutto prima o poi la riduzione del processo produttivo porra' dei limiti fisici all'integrazione; quindi non so quanto valga la pena andare verso un'integrazione per poi tornare a lavorare con PC grossi come delle stanze (per componente :asd:) :sofico: ovviamente esagero pero' non credo che la strada di intel possa avere cosi' vita facile (sul lato GPU)...poi quando sara' uscito larrabee faremo meglio i conti anche perche' mi pare che ci sia ancora una fitta coltre di fumo un po' in tutte le direzioni...
Alla fine per ora abbiamo solo ambizioni, da una parte GPU che vorrebbero fare anche le CPU (ATI e Nvidia) dall'altra CPU che vorrebbero fare GPU (intel con Larrabee) risultati al momento pochi o nulli se escludiamo qualche tech demo scritta appositamente (vedere la fisica di nvidia) le cose potrebbero cambiare come anche no...:stordita:
Potrebbe (quello che sta avvenendo) essere che ci sara' un' invasione di campo da parte di un po' tutti ma credo che alla fine le cose non cambieranno poi molto e che salvo imprevisti, che nessuno si augura, tutte e tre (4, se consideriamo ATI ancora entita' separata) queste aziende continuino a fare quello che fanno oggi.
Bon, la mia previsione l'ho fatta...sotto con le scomesse!!! :O :D
non si parla tanto di integraziona quanto di convergenza: sono cose ben distinte e la convergenza si sta già realizzando: su x360 la gpu può fare da unità centrale e la cpu da coprocessore (i ruoli si sono invertiti :D ). Le gpu ATi per pc è dalla serie R5x0 che sono in grado di fare alcune delle operazioni tipiche di una cpu (funzionalità mai esposte finora) e le dx11 faranno accelerare il processo di convergenza rendendo sempre più simili le gpu alle cpu anche nella tipologia di alcune unità di calcolo (il calcolo a 64 bit, pipeline di tipo INT, ecc). Ovvio che con le gpu in grado di fare le cpu (e con molta più potenza di calcolo) ad essere spiazzati sarebbero i produttori di cpu che allora di danno a chip ibridi che abbiano una potenza di calcolo paragonabile a quella di una gpu, pur essendo di fatto, ancora cpu-like, oppure si comprano i porduttori di gpu :D
Kharonte85
07-08-2008, 19:22
più facile che si implementi prima l'utilizzo di MRT per l'AA box filter che non il resolve via shader. Anzi, questa è la soluzione naturale per giochi (anche dx9) che usano MSAA box filter e deferred rendering, mentre l'utilizzo di render to texture (come impongono le dx10 e come fanno i chip NV) è solo una pezza messa li per permettere di utilizzare illuminazione dinamica e MSAA contemporaneamente.
come ripeto il MRT si può utilizzare anche con engine dx9 (ac docet) e da risultati immediati da subito: non è una speranza, ma una certezza. Forse la speranza è da parte dei fan nVIDIA sul fatto che non venga supportato dalle SWHouse. :D
Non ribaltiamo le cose...:O
La tua è (come di chi ha o avra' [non escludendo il sottoscritto] una scheda AMD/ATI) speranza che lo facciano, non hai la certezza per ora, io invece ho la certezza che fin'ora non l'hanno fatto (salvo AC ecc..ecc..)...quindi sei tu che speri...Del doman non c'è certezza :fagiano:
non si parla tanto di integraziona quanto di convergenza: sono cose ben distinte e la convergenza si sta già realizzando: su x360 la gpu può fare da unità centrale e la cpu da coprocessore (i ruoli si sono invertiti :D ). Le gpu ATi per pc è dalla serie R5x0 che sono in grado di fare alcune delle operazioni tipiche di una cpu (funzionalità mai esposte finora) e le dx11 faranno accelerare il processo di convergenza rendendo sempre più simili le gpu alle cpu anche nella tipologia di alcune unità di calcolo (il calcolo a 64 bit, pipeline di tipo INT, ecc).
Infatti convergenza è quello che io chiamo andare a invadere il campo di un'altro, ma intel con Larrabee mi sembra proprio che punti in futuro ad una strada che conduce ad una integrazione: una cosa che fa tutto, anche se probabilmente all'inizio la fara' male...
poi con le dx11 vedremo...
Ovvio che con le gpu in grado di fare le cpu (e con molta più potenza di calcolo) ad essere spiazzati sarebbero i produttori di cpu che allora di danno a chip ibridi che abbiano una potenza di calcolo paragonabile a quella di una gpu, pur essendo di fatto, ancora cpu-like, oppure si comprano i porduttori di gpu :D
Infatti questo fa paura, ecco perche' le mosse di intel potrebbero rappresentare il preludio alla morte di uno dei due animali feriti...:(
appleroof
07-08-2008, 19:36
Non ribaltiamo le cose...:O
La tua è (come di chi ha o avra' [non escludendo il sottoscritto] una scheda AMD/ATI) speranza che lo facciano, non hai la certezza per ora, io invece ho la certezza che fin'ora non l'hanno fatto (salvo AC ecc..ecc..)...quindi sei tu che speri...Del doman non c'è certezza :fagiano:
al limite è la speranza che verrano implementate presto, anzi prestissimo (in tempo a far vendere quante più 48x0 possibile :D) : di sicuro giochi dx10.1 "in massa" si vedranno ma per quell'epoca avremo i nuovi chip dx11 e (così pare) larrabee
yossarian
07-08-2008, 19:37
Non ribaltiamo le cose...:O
La tua è (come di chi ha o avra' [non escludendo il sottoscritto] una scheda AMD/ATI) speranza che lo facciano, non hai la certezza per ora, io invece ho la certezza che fin'ora non l'hanno fatto (salvo AC ecc..ecc..)...quindi sei tu che speri...Del doman non c'è certezza :fagiano:
avevo modificato il post precedente ma mi avevi già quotato, per cui riporto qui le modifiche
credo che il tutto nasca da un fraintendimento di cui mi assumo tutte le responsabilità. Quando si ha un motore che fa deferred rendering (in realtà sia quello di stalker che l'ue3 fanno solo deferred lightning, ma all'atto pratico non cambia nulla), si ha il problema di rendere fruibili i risultatii contenuti nello z-buffer per le successive operazioni (sono quei risultati su cui si applica il MSAA box filter). L'HW dx9 è impossibilitato a farlo, poichè non può salvarli da nessun'altra parte che non sia lo z-buffer stesso e questi dati vengono sovrascritti (e quindi resi inutilizzabili) quando si procede alle operazioni di color e alpha blending. Con l'HW dx10 è possibile salvare questi risultati su una texture e riutilizzare lo z-buffer per le color ops. Questo però comporta una maggior occupazione di bandwidth e tutta una serie di operazioni in più (ogni volta che serovno i dati si deve effettuare un'operazioni di texture fetch). La terza soluzione è quella che permette di utilizzare 2 diversi render target per z-ops e color ops, entrambi accessibili in ogni momento e, se necessario, contemporaneamente. Ogni render target ha le sue modalità di blending (altro problema da superare in caso di render to texture, poichè per le z-ops e per il MSAA box filter si usa INT8, mentre per le color ops fp32). Quest'ultima è la soluzione possibile con HW dx10.1 (o dx11).
Per questo motivo ho la certezza che si farà uso (e anche piuttosto presto) di MRT. Finora non si sono visti titoli dx10 ma solo titoli dx8/9 con qualche feature simil-dx10 appiccicata qua o là. Nel momento in cui si inizierà a far uso di deferred rendering e MSAA, l'implementazione della soluzione che fa uso di MRT è non solo la migliore ma anche la più probabile. I motori grafici, finora nascono su HW che non può gestire illuminazione dinamica (di tipo deferred) e MSAA. Adesso c'è HW in grado di gestire le due cose con modalità differenti e non è difficile implementarle entrambe. Tra l'altro, potrei sbagliarmi, ma credo che lì'utilizzo di MRT su un engine in cui è previsto l'uso di render to texture, potrebbe essere fatta anche via driver senza tanti sbattimenti (probabilmenyte, ma non ci metto la mano sul fuoco, non essendo un programmatore) è sufficiente sostituire una chiamata di tipo render to texture con una di tipo render to target
Kharonte85
07-08-2008, 19:56
al limite è la speranza che verrano implementate presto, anzi prestissimo (in tempo a far vendere quante più 48x0 possibile :D) : di sicuro giochi dx10.1 "in massa" si vedranno ma per quell'epoca avremo i nuovi chip dx11 e (così pare) larrabee
Stai buono che scorsa settimana fra un po' mi entrava nel case aggratis :asd:...:O poi tutto è sfumato...pazienza :)
Ma poi non capisco dove sia il problema male che vada appunto si compra ATI se diventa una cosa cosi' fondamentale :O
credo che il tutto nasca da un fraintendimento di cui mi assumo tutte le responsabilità.
CUT
In ginocchio sui CECI!!!!! :ncomment:
:sofico:
Ma che te voi scusa' e chessaramai :D siamo in colloquio informale (sempre interessante), anche se facciamo previsioni diverse o abbiamo opinioni diversa mica ci dobbiamo fucilare a vicenda :asd: stay relaxed :D
Comunque ho capito cosa intendi, ormai aspettiamo e vediamo (anche perche' siamo un po' OT ;) ) :)
appleroof
07-08-2008, 20:09
cut
Ma poi non capisco dove sia il problema male che vada appunto si compra ATI se diventa una cosa cosi' fondamentale :O
cut
infatti nessun male, anzi: solo che sono quasi convinto che quando avremo tanti, la maggior parte, di giochi dx10.1 o "full dx10" che dir si voglia, ci saranno le nuove schede (dx11) Ati, Nvidia e a quanto pare Intel, tutto qui :)
infatti nessun male, anzi: solo che sono quasi convinto che quando avremo tanti, la maggior parte, di giochi dx10.1 o "full dx10" che dir si voglia, ci saranno le nuove schede (dx11) Ati, Nvidia e a quanto pare Intel, tutto qui :)
Si e' gia' sperimentata tante di quelle volte questa situazione di transizione che ormai non si conta piu'... quante features rimaste inutilizzate per la mancanza di tempo (voglia o marketing) degli sviluppatori. Negli anni avremmo visto capacita' di per pixel shading gia' dall'NV15 e invece abbiamo aspettato ancora un'eternita' per vedere i primi effettucci con le prime pozzanghere d'acqua dei giochi dx8... (estremizzo...):stordita: .
Foglia Morta
08-08-2008, 06:45
Microsoft game studios va con Havok definitivamente quindi Physx di nVidia sarebbe tagliata fuori dai giochi per quel che riguarda Microsoft: http://www.gamerchip.com/can-the-havok-engine-become-xbox-exclusive/
E a questo punto immagino che Microsoft sia più favorevole a favorire Havok anche per le DX11
qualche info sull DX11:
http://www.realtimerendering.com/blog/direct3d-11-details-part-i-intro/
http://www.realtimerendering.com/blog/direct3d-11-details-part-ii-tessellation/
e qualche pdf di nVidia: http://news.developer.nvidia.com/2008/08/gamefest-presen.html
Microsoft game studios va con Havok definitivamente quindi Physx di nVidia sarebbe tagliata fuori dai giochi per quel che riguarda Microsoft: http://www.gamerchip.com/can-the-havok-engine-become-xbox-exclusive/
E a questo punto immagino che Microsoft sia più favorevole a favorire Havok anche per le DX11
qualche info sull DX11:
http://www.realtimerendering.com/blog/direct3d-11-details-part-i-intro/
http://www.realtimerendering.com/blog/direct3d-11-details-part-ii-tessellation/
e qualche pdf di nVidia: http://news.developer.nvidia.com/2008/08/gamefest-presen.html
Physx : Nvidia = Bitboys : ATi = Gigapixel : 3DFx ........ = Soldi ben spesi. :asd:
Scherzi a parte era quantomeno OVVIO che finisse cosi' e se non ricordo male lo avevamo ipotizzato gia' un casino di tempo fa. Microsoft comanda e comanda cio' che a lei commercialmente conviene.
appleroof
08-08-2008, 08:40
Brutto colpo per i verdi, Microsoft ha siglato un accordo di licenza per la fisica nei propri giochi con Havok. L’accordo mette tutti i prodotti Havock, Physics, Animation e Behaviour disponibili negli studio interni a Microsoft e a tutti i suoi partner internazionali. Intel e AMD ringraziano.
Fra i titoli Microsoft in fase di sviluppo che usano Havok troviamo Fable 2, Halo Wars e Banjo Kazooie: Nuts and Bolts.
Microsoft usa prodotti Havok dal 2001e il motore di fisica è stato inserito in tanti titoli Microsoft come Halo 3, Halo 2 e Age of Empires III.
http://www.theinquirer.it/2008/08/07/microsoft-scatena-havok.html
ricollegandoci ai discorsi che facevamo su questo stesso tread, non so Amd, ma Intel ringrazia davvero (soldi ben spesi) :read:
Azz, ho trovato questa notizia vecchissima: http://www.hwupgrade.it/news/videogiochi/fable-2-si-avvarra-dell-havok-engine_19555.html altro che novità :D
inoltre, Nvidia in passato aveva già collaborato strettamente per far girare havock fx sulle sue vga http://www.nvidia.it/object/IO_30500.html a voi i commenti....
tigershark
08-08-2008, 08:59
Brutto colpo per i verdi, Microsoft ha siglato un accordo di licenza per la fisica nei propri giochi con Havok. L’accordo mette tutti i prodotti Havock, Physics, Animation e Behaviour disponibili negli studio interni a Microsoft e a tutti i suoi partner internazionali. Intel e AMD ringraziano.
Fra i titoli Microsoft in fase di sviluppo che usano Havok troviamo Fable 2, Halo Wars e Banjo Kazooie: Nuts and Bolts.
Microsoft usa prodotti Havok dal 2001e il motore di fisica è stato inserito in tanti titoli Microsoft come Halo 3, Halo 2 e Age of Empires III.
http://www.theinquirer.it/2008/08/07/microsoft-scatena-havok.html
ricollegandoci ai discorsi che facevamo su questo stesso tread, non so Amd, ma Intel ringrazia davvero (soldi ben spesi) :read:
Azz, ho trovato questa notizia vecchissima: http://www.hwupgrade.it/news/videogiochi/fable-2-si-avvarra-dell-havok-engine_19555.html altro che novità :D
inoltre, Nvidia in passato aveva già collaborato strettamente per far girare havock fx sulle sue vga http://www.nvidia.it/object/IO_30500.html a voi i commenti....
capirai...i giochi microsoft non sono poi mica cosi tanti..quindi non ci vedo tutto questo colpaccio. Case produttrici di giochi ben più blasonate supportano da sempre Nvidia. In ogni caso ormai con l'ottica di GPU general purpose che prende sempre più piede, non ci vedo nulla di strano o difficile nel rendere compatibile le proprie GPU sia con un motore che con l'altro...dimenticate che Nvidia detiene la fetta di mercato più grande ed un colosso succhiasoldi come Microsoft di certo non la taglierebbe mai fuori....:D
Kharonte85
08-08-2008, 09:11
Era palese che Microsoft scegliesse la via piu' semplice, infatti fino ad oggi l'uso dell' Havok non è mai stato legato alle GPU ma solo alle CPU (AMD ha partecipato soprattutto per questo motivo secondo me) e quindi ha avuto da sempre più mercato (rispetto alle alternative: o niente fisica o PPU AGEIA dedicata)
http://www.hothardware.com/articleimages/Item1191/nvidiaPhysX_LayersAndTheCompetition.png
La fisica proposta da nvidia invece è di tutt'altro livello (e i primi test condotti sembrano mostrare risultati migliori di quanto pensassi) tutto dipenderà da quanti produttori di giochi saranno disponibili a impegnarsi per supportarla seriamente...nvidia dovrà spingere soprattutto sulla prossima console Sony se vuole ottenere dei risultati in futuro...
@appleroof: prima dell'acquisizione da parte di Intel, havok aveva sviluppato dei tool ,chiamati proprio havok FX, sia per schede nvidia che ATI, poi tutto è finito in fumo...
appleroof
08-08-2008, 09:26
capirai...i giochi microsoft non sono poi mica cosi tanti..quindi non ci vedo tutto questo colpaccio. Case produttrici di giochi ben più blasonate supportano da sempre Nvidia. In ogni caso ormai con l'ottica di GPU general purpose che prende sempre più piede, non ci vedo nulla di strano o difficile nel rendere compatibile le proprie GPU sia con un motore che con l'altro...dimenticate che Nvidia detiene la fetta di mercato più grande ed un colosso succhiasoldi come Microsoft di certo non la taglierebbe mai fuori....:D
quoto, però resta che la monopolista (directx) si schiera per havock, che poi i giochi che sviluppa MS in sè siano pochi siamo d'accordo, quello che pesa secondo me, alla luce della "guerra" in atto sopratutto tra Intel ed Nvidia, è la scelta di campo fatta....stiamo a vedere
Era palese che Microsoft scegliesse la via piu' semplice, infatti fino ad oggi l'uso dell' Havok non è mai stato legato alle GPU ma solo alle CPU (AMD ha partecipato soprattutto per questo motivo secondo me) e quindi ha avuto da sempre più mercato (rispetto alle alternative: o niente fisica o PPU AGEIA dedicata)
La fisica proposta da nvidia invece è di tutt'altro livello (e i primi test condotti sembrano mostrare risultati migliori di quanto pensassi) tutto dipenderà da quanti produttori di giochi saranno disponibili a impegnarsi per supportarla seriamente...nvidia dovrà spingere soprattutto sulla prossima console Sony se vuole ottenere dei risultati in futuro...
@appleroof: prima dell'acquisizione da parte di Intel, havok aveva sviluppato dei tool ,chiamati proprio havok FX, sia per schede nvidia che ATI, poi tutto è finito in fumo...
è vero, physx è 100 volte meglio di havock, non vorrei che per i soliti giochi di potere (in questo caso MS fà un "dispetto" a SOny, ma indirettamente favorisce Intel vs Nvidia, sembra il risiko :rolleyes: :D ) come al solito a rimanere fregati siamo noi consumatori finali di queste tecnologie....anche qui stiamo a vedere
p.s.: ricordo havock fx, l'ho riportato perchè secondo me nulla vieta che esso possa essere implementato su schede Nvidia (come physx su Ati), dipende tutto dai citati giochi di potere...
Kharonte85
08-08-2008, 09:44
p.s.: ricordo havock fx, l'ho riportato perchè secondo me nulla vieta che esso possa essere implementato su schede Nvidia (come physx su Ati), dipende tutto dai citati giochi di potere...
per forza, credo che sia scritto in C/C++ :D quindi facilmente portabile su qualsiasi compilatore compatibile...
appleroof
08-08-2008, 09:50
Intel e raytracing (certo che ci stà proprio dando dentro, Intel :D :D)
TG Daily: Intel finally disclosed a few details about Larrabee earlier this week. What is Larrabee from your perspective. What is the underlying architecture and the programming model?
Daniel Pohl: Larrabee was primarily built as a rasterizering processor. Therefore you have support for DirectX and OpenGL. But it will also be a freely programmable x86-architecture. That means you could, for example, write your own rasterizer with your own API, a ray tracer, a voxel renderer or combinations of those. You could also use it for non-graphical applications that benefit from parallelization.
TG Daily: How did you get the API to enable ray-tracing? What API is Intel using to showcase ray tracing demos?
Daniel Pohl: Some of the important features of a graphics API are to be able to setup your geometry, define material properties, camera values and a lighting environment. We wrote our own API for that and tuned that through several internal revisions. The shading system uses a HLSL-like syntax that allows you also to shoot new rays within a shader. With that capability, special effects like glass and mirrors become very easy tasks. Everything you see in the Quake Wars: Ray Traced demo is done over that API. Using that API the programmer has no need to manually multi-thread the rendering and does not need to optimize the shading with SSE as this is done by the shading compiler automatically. Of course there always people who want to go really low-level to squeeze out every last percent of performance. For that case, our API can also be bypassed to directly access all internal structures. Let me make sure here that we are doing this for research reasons, so it might be that this API never sees the public light.
http://www.tgdaily.com/content/view/38795/113/
Intel e raytracing (certo che ci stà proprio dando dentro, Intel :D :D)
TG Daily: Intel finally disclosed a few details about Larrabee earlier this week. What is Larrabee from your perspective. What is the underlying architecture and the programming model?
Daniel Pohl: Larrabee was primarily built as a rasterizering processor. Therefore you have support for DirectX and OpenGL. But it will also be a freely programmable x86-architecture. That means you could, for example, write your own rasterizer with your own API, a ray tracer, a voxel renderer or combinations of those. You could also use it for non-graphical applications that benefit from parallelization.
TG Daily: How did you get the API to enable ray-tracing? What API is Intel using to showcase ray tracing demos?
Daniel Pohl: Some of the important features of a graphics API are to be able to setup your geometry, define material properties, camera values and a lighting environment. We wrote our own API for that and tuned that through several internal revisions. The shading system uses a HLSL-like syntax that allows you also to shoot new rays within a shader. With that capability, special effects like glass and mirrors become very easy tasks. Everything you see in the Quake Wars: Ray Traced demo is done over that API. Using that API the programmer has no need to manually multi-thread the rendering and does not need to optimize the shading with SSE as this is done by the shading compiler automatically. Of course there always people who want to go really low-level to squeeze out every last percent of performance. For that case, our API can also be bypassed to directly access all internal structures. Let me make sure here that we are doing this for research reasons, so it might be that this API never sees the public light.
http://www.tgdaily.com/content/view/38795/113/
Interessante, anceh se conoscendo certe sparate mi viene alla mente una certa MMX Technology.... :rolleyes:
appleroof
08-08-2008, 10:11
Interessante, anceh se conoscendo certe sparate mi viene alla mente una certa MMX Technology.... :rolleyes:
già...tra l'altro guarda come conclude l'autore dell'articolo:
Intel's research group is pushing ray-tracing development on Intel's chips, but we should not forget that there are companies such as JulesWorld, a small company from Los Angeles that is offering ray-tracing technology on graphics cards of today, not tomorrow. :D
certo è più marketinghese che altro, imho quello che è interessante è vedere la decisa scesa in campo di questo gigante, non perde occasione...
già...tra l'altro guarda come conclude l'autore dell'articolo:
Intel's research group is pushing ray-tracing development on Intel's chips, but we should not forget that there are companies such as JulesWorld, a small company from Los Angeles that is offering ray-tracing technology on graphics cards of today, not tomorrow. :D
certo è più marketinghese che altro, imho quello che è interessante è vedere la decisa scesa in campo di questo gigante, non perde occasione...
Infatti. Comunque non escludo che possano davvero mostrarsi innovativi in questo campo. Effettivamente come in molti settori lontani da questo, avere target differenti alla fine e' un obbligo dettato dai nuovi mercati che richiedono fonti attive ovuqune e non basta piu' dedicarsi in uno solo. Quante aziende old sono diventate colossi che fanno tutto e il contrario di tutto (vedi IBM ad esempio, ma anche Microsoft stessa, Google.. ).
Il problema e' COME e CON CHE COSA comincieranno. A me queste sparate da "risolviamo noi in un'attimo cio' che nella conoscenza 3D e' rimasto sempre un utopistica futura aspettativa decennale" mi sa di esagerazione paragonabile solo a quelle di Sony con la PS2. ;)
appleroof
08-08-2008, 10:58
Infatti. Comunque non escludo che possano davvero mostrarsi innovativi in questo campo. Effettivamente come in molti settori lontani da questo, avere target differenti alla fine e' un obbligo dettato dai nuovi mercati che richiedono fonti attive ovuqune e non basta piu' dedicarsi in uno solo. Quante aziende old sono diventate colossi che fanno tutto e il contrario di tutto (vedi IBM ad esempio, ma anche Microsoft stessa, Google.. ).
Il problema e' COME e CON CHE COSA comincieranno. A me queste sparate da "risolviamo noi in un'attimo cio' che nella conoscenza 3D e' rimasto sempre un utopistica futura aspettativa decennale" mi sa di esagerazione paragonabile solo a quelle di Sony con la PS2. ;)
sono completamente d'accordo :)
qui qualche ulteriore spiegazione di come larrabee differisce dalle gpu Nvidia e Ati:
The really interesting parts of the Larrabee presentation concerned the software and how Larrabee will run 3D games.
All previous real-time ray-tracing hype aside, Larrabee will run standard DirectX and OpenGL games using the same programmable rendering pipeline as traditional GPUs from NVIDIA and ATI. The difference, however, is that while traditional GPUs implement that rendering pipeline as an ordered series of hardware steps, some of which are individually programmable, Larrabee implements it entirely in software using a combination of general-purpose x86 cores and fixed-function hardware accelerators.
I've tried to illustrate this fundamental contrast in the two diagrams below. Figure 2 shows a traditional GPU with a fixed-function pipeline and two programmable stages (yellow and purple). The sequence of steps in the graphics pipeline is fixed, as is the amount of hardware dedicated to each stage. The data used to render the frame containing the tree is stored in memory, along with the programs for the two programmable stages.
Figure 3 shows Larrabee's approach, in which most of the pipeline is implemented in software that runs on the general-purpose x86 cores. What this means is that the sizes and even order of the rendering stages aren't fixed, so the rendering pipeline can be reconfigured dynamically from one moment to the next to match the game engine's needs by reallocating hardware resources. Steps can be skipped entirely if they're not needed, and other steps can be beefed up with extra hardware.
Figure 3 shows Larrabee's approach, in which most of the pipeline is implemented in software that runs on the general-purpose x86 cores. What this means is that the sizes and even order of the rendering stages aren't fixed, so the rendering pipeline can be reconfigured dynamically from one moment to the next to match the game engine's needs by reallocating hardware resources. Steps can be skipped entirely if they're not needed, and other steps can be beefed up with extra hardware.
http://arstechnica.com/news.ars/post/20080804-larrabee-intels-biggest-leap-ahead-since-the-pentium-pro.html
sono completamente d'accordo :)
qui qualche ulteriore spiegazione di come larrabee differisce dalle gpu Nvidia e Ati:
The really interesting parts of the Larrabee presentation concerned the software and how Larrabee will run 3D games.
All previous real-time ray-tracing hype aside, Larrabee will run standard DirectX and OpenGL games using the same programmable rendering pipeline as traditional GPUs from NVIDIA and ATI. The difference, however, is that while traditional GPUs implement that rendering pipeline as an ordered series of hardware steps, some of which are individually programmable, Larrabee implements it entirely in software using a combination of general-purpose x86 cores and fixed-function hardware accelerators.
I've tried to illustrate this fundamental contrast in the two diagrams below. Figure 2 shows a traditional GPU with a fixed-function pipeline and two programmable stages (yellow and purple). The sequence of steps in the graphics pipeline is fixed, as is the amount of hardware dedicated to each stage. The data used to render the frame containing the tree is stored in memory, along with the programs for the two programmable stages.
Figure 3 shows Larrabee's approach, in which most of the pipeline is implemented in software that runs on the general-purpose x86 cores. What this means is that the sizes and even order of the rendering stages aren't fixed, so the rendering pipeline can be reconfigured dynamically from one moment to the next to match the game engine's needs by reallocating hardware resources. Steps can be skipped entirely if they're not needed, and other steps can be beefed up with extra hardware.
Figure 3 shows Larrabee's approach, in which most of the pipeline is implemented in software that runs on the general-purpose x86 cores. What this means is that the sizes and even order of the rendering stages aren't fixed, so the rendering pipeline can be reconfigured dynamically from one moment to the next to match the game engine's needs by reallocating hardware resources. Steps can be skipped entirely if they're not needed, and other steps can be beefed up with extra hardware.
http://arstechnica.com/news.ars/post/20080804-larrabee-intels-biggest-leap-ahead-since-the-pentium-pro.html
Rispondo (estremizzando/semplificando/ironizzando) con questi due flashback...
EnT&L -----> ...blablablablabla....
Verite 1000 Risc c/gpu -------> ...blablablablablabla...
appleroof
08-08-2008, 11:15
Rispondo (estremizzando/semplificando/ironizzando) con questi due flashback...
EnT&L -----> ...blablablablabla....
Verite 1000 Risc c/gpu -------> ...blablablablablabla...
:asd: :asd: ti vedo molto entusiasta riguardo Larrabee...:D
personalmente mi interessano 2 aspetti, uno persoanle ed un altro più generale: le prestazioni della "scheda" rispetto a quelle Nvidia e Ati (un'alternativa in più non può che farmi piacere :D) e i riflessi di questa discesa in campo sull'intero scenario (che è quello di cui discutevamo su questo tread)
per il primo aspetto non mi sento di bollare Larrabee come fetecchia o come supersoluzione, aspetto di vederlo all'opera: non nascondo che sono abbastanza scettico sulle sue prestazioni con i giochi, almeno nella sua versione iniziale, ma d'altra parte non credo che Intel lanci la sua I alternativa ad Ati/Nvidia con un prodotto sottotono rispetto a quelli dei competitori...vediamo :D
:asd: :asd: ti vedo molto entusiasta riguardo Larrabee...:D
personalmente mi interessano 2 aspetti, uno persoanle ed un altro più generale: le prestazioni della "scheda" rispetto a quelle Nvidia e Ati (un'alternativa in più non può che farmi piacere :D) e i riflessi di questa discesa in campo sull'intero scenario (che è quello di cui discutevamo su questo tread)
per il primo aspetto non mi sento di bollare Larrabee come fetecchia o come supersoluzione, aspetto di vederlo all'opera: non nascondo che sono abbastanza scettico sulle sue prestazioni con i giochi, almeno nella sua versione iniziale, ma d'altra parte non credo che Intel lanci la sua I alternativa ad Ati/Nvidia con un prodotto sottotono rispetto a quelli dei competitori...vediamo :D
Mi interesserebbero "straeccome" ma quando si dice di voler emulare (perche' poi di questo si tratta) tutti gli stage con core x86 (quanti, quanto potenti, ma il codice x86 non era non adatto a questo genere di calcoli? ma e' possibile?) e' paragonabile solo a Grillo che dice che con la macchina da 100kg di peso e elettrica (era elettrica boh non ricordo) si puo' girare il mondo come con una macchina normale.... e si risparmia! :O
Poi magari si gira con il Cayenne... pero'...
appleroof
08-08-2008, 11:30
Mi interesserebbero "straeccome" ma quando si dice di voler emulare (perche' poi di questo si tratta) tutti gli stage con core x86 (quanti, quanto potenti, ma il codice x86 non era non adatto a questo genere di calcoli? ma e' possibile?) e' paragonabile solo a Grillo che dice che con la macchina da 100kg di peso e elettrica (era elettrica boh non ricordo) si puo' girare il mondo come con una macchina normale.... e si risparmia! :O
Poi magari si gira con il Cayenne... pero'...
Lascia stare quello che dice Grillo, il suo unico merito è solo fare il rumore giusto a non far dormire la gente (che poi preferibilmente si fà una sua idea senza drograrsi di tiggì-a-busta-paga e talkshow-teatro alla portaaporta/matrix) :read:, per il resto è solo un comico, mica il Messia (per la cronaca, si riferiva al motore ad idrogeno)
tornando a Larrabee, sono d'accordo sui rilievi "tecnici" e le tue sono le mie stesse perplessità....
Lascia stare quello che dice Grillo, il suo unico merito è solo fare il rumore giusto a non far dormire la gente (che poi preferibilmente si fà una sua idea senza drograrsi di tiggì-a-busta-paga e talkshow-teatro alla portaaporta/matrix) :read:, per il resto è solo un comico, mica il Messia (per la cronaca, si riferiva al motore ad idrogeno)
tornando a Larrabee, sono d'accordo sui rilievi "tecnici" e le tue sono le mie stesse perplessità....
Era solo per fare un esempio, preferisco non aprire ulteriore discussioni su certe persone se no non finisco piu.
Il problema di Intel pero' e' a mio parere elaborare un tipo di calcolo nato ed evolutosi proprio sulla attuale "staticita'" che nell'intervista di Intel veniva criticata circa gli attuali stage a livello hw. Il rendering funziona cosi' e farlo alla maniera di Intel, magari nel caso che il software agisca nel modo a lui piu' congegnale sarebbe anche prestazionalmente valido (migliore non so) ma devi sempre fare qualcosa che viene fatto cosi' da anni e anni e farlo alternativamente a mio occhio e' sempre una sorta di emulazione e laddove c'e' emulazione c'e' perdita di prestazioni, compatibilita' ecc ecc... magari ci riesce a mo' di PowerVR ma ci sono troppi interessi in gioco e alla fine e' tutto dato in mano alle software house.
Mi interesserebbero "straeccome" ma quando si dice di voler emulare (perche' poi di questo si tratta) tutti gli stage con core x86 (quanti, quanto potenti, ma il codice x86 non era non adatto a questo genere di calcoli? ma e' possibile?) e' paragonabile solo a Grillo che dice che con la macchina da 100kg di peso e elettrica (era elettrica boh non ricordo) si puo' girare il mondo come con una macchina normale.... e si risparmia! :O
Poi magari si gira con il Cayenne... pero'...
Larrabee adotta una nuova estensione del set di istruzioni x86 chiamato temporaneamente LRBni. MMX e SSE sono stati rimossi e LRBni e' molto diverso da quest'ultimi, e' molto piu' simile a quello che le GPU moderne offrono.
Siccome ogni core puo' eseguire 2 istruzioni per ciclo di clock una puo' essere una classica istruzione x86 mentre la seconda puo' essere una istruzione che opera su questi nuovi registri a 16 componenti in singola precisione o interi (o 8 componenti in doppia precisione).
Inoltre Larrabee ha una texture unit con 32kb di cache per core (che supporta virtual texturing, Carmack sara' contento..), cosa buona e' giusta dato che samplare e filtrare una texture non mappa molto bene su una CPU general purpose.
E' difficile sapere se in anticipo se avra' successo o meno e se sara' competitivo o meno, ma di sicuro e' qualcosa di molto interessante. Avendo scritto software rasterizer per anni sul mio avecchio amiga mi attizza l'idea di poterlo fare ancora su una architettura molto piu' avanzata.
Per quanto mi riguarda scommetto che la prima versione del chip sul mercato avra' almeno 32 core clockati ad almeno 2 Ghz -> 2 Teraflop/s
Foglia Morta
11-08-2008, 20:32
Ora potrebbero cominciare a fare solo chipset con video integrato...
http://img503.imageshack.us/img503/8870/sgraphics01b8974218wp0.jpg
http://img519.imageshack.us/img519/2375/sgraphics02b8978977zv3.jpg
Kharonte85
11-08-2008, 20:38
Una specie di hybrid da INTEL...Basta che non sia esclusivo per le GPU discrete di altre marche e potrebbe andare bene...
PS: certo che alla intel paiono dei mortaccioni guardando quella foto...:sofico:
Foglia Morta
11-08-2008, 20:44
Una specie di hybrid da INTEL...Basta che non sia esclusivo per le GPU discrete di altre marche e potrebbe andare bene...
IMO quando avranno le loro schede grafiche sarà esclusiva della loro piattaforma
PS: certo che alla intel paiono dei mortaccioni guardando quella foto...:sofico:
In effetti pare che abbiano il braccino corto a giudicare da quella foto :asd: . Però se i risultati finanziari gli danno ragione non gli si può dire nulla :D
Sebbene apparentemente fuori dal contesto larrabee, interessante questa idea dello switch tra gpu su bus e integrata cosi' da risparmiare energia. Il contesto appare attuabile soprattutto nei notebook e nei dispositivi (umpc) che hanno gpu discrete che consumano troppa corrente. Effettivamente per l'uso 2D di Windows il sottosistema grafico dedicato sarebbe da spegnere proprio totalmente dal momento che basterebbe un sistema 2D integrato nei chipset a sostenere le richieste ormai palesi anche per le peggiori configurazioni.
Basti pensare che l'umpc che mi sono comprato ultimamente con cpu AMD Geode e sottosistema AMD con 2D integrato riesce perfettamente a sostenere tutto il lavoro grafico di Windows senza grosse difficolta, con un consumo totale davvero ridicolo paragonato a un computer desktop.
Foglia Morta
19-08-2008, 09:47
Posto qui perchè Intel ha investito dei soldini su LucidLogix: http://www.pcper.com/article.php?aid=607&type=expert&pid=1
Praticamente dividono il carico di lavoro in tasks e li distribuiscono alle gpu. Nel link c'è anche una scena che mostra come certe parti siano a carico di una gpu e altre parti a carico dell'altra.
La cosa migliore è che se le gpu hanno gli stessi driver si possono usare anche gpu diverse ( tipo RV670 + RV770 ) . Hydra divide il carico di lavoro in base alla potenza delle gpu ( in situazioni asimmetriche quindi potrebbe anche dare il 20% del lavoro ad una gpu che comunque l'impegnerebbe al massimo delle sue potenzialità e il restante 80% all'altra gpu che in teoria dovrebbe essere sempre impegnata efficientemente ). Quindi in caso di simmetria ( 2 4870 X2 o 3-4 GTX 280 ) promettono uno scaling lineare : se una gpu fa 100 fps , 2 gpu 200 fps , 3 faranno 300fps e così via...
Ci vogliono test per verificare l'attendibilità di ciò che dicono. IMO è interessante ma i test diranno tutto
Ottimo se la ripartizione avviene a prescindere dalla volontà dello sviluppatore di supportare la cosa. Rimango comunque dell'idea che due schede video per il singolo scopo siano e sempre saranno scelte di nicchia di pochi appassionati facoltosi. E comprarne due dopo avrebbe poco senso se lo sviluppo delle api avviene con la stessa velocità.
Posto qui perchè Intel ha investito dei soldini su LucidLogix: http://www.pcper.com/article.php?aid=607&type=expert&pid=1
Praticamente dividono il carico di lavoro in tasks e li distribuiscono alle gpu. Nel link c'è anche una scena che mostra come certe parti siano a carico di una gpu e altre parti a carico dell'altra.
La cosa migliore è che se le gpu hanno gli stessi driver si possono usare anche gpu diverse ( tipo RV670 + RV770 ) . Hydra divide il carico di lavoro in base alla potenza delle gpu ( in situazioni asimmetriche quindi potrebbe anche dare il 20% del lavoro ad una gpu che comunque l'impegnerebbe al massimo delle sue potenzialità e il restante 80% all'altra gpu che in teoria dovrebbe essere sempre impegnata efficientemente ). Quindi in caso di simmetria ( 2 4870 X2 o 3-4 GTX 280 ) promettono uno scaling lineare : se una gpu fa 100 fps , 2 gpu 200 fps , 3 faranno 300fps e così via...
Ci vogliono test per verificare l'attendibilità di ciò che dicono. IMO è interessante ma i test diranno tutto
Cosi dal microstuttering si passerà direttamente al lag vero è proprio, vedendo tutti i passaggi supplementari che questa tecnologia prevede...
Foglia Morta
19-08-2008, 17:03
Ottimo se la ripartizione avviene a prescindere dalla volontà dello sviluppatore di supportare la cosa. Rimango comunque dell'idea che due schede video per il singolo scopo siano e sempre saranno scelte di nicchia di pochi appassionati facoltosi. E comprarne due dopo avrebbe poco senso se lo sviluppo delle api avviene con la stessa velocità.
E soprattutto pare ( almeno sulla carta ) una valida all'alternativa all'AFR e SFR ( e pure al tile mi pare ).
Ma io penso che il futuro ci riservi schede grafiche multi-core ( fascia mainsream e performance ) e multi-core + multi-die ( per la fascia enthusiasth ) e Hydra potrebbe essere usata in maniera trasparente per l'utente finale nel caso vada sulla singola scheda grafica con più gpu.
Cosi dal microstuttering si passerà direttamente al lag vero è proprio, vedendo tutti i passaggi supplementari che questa tecnologia prevede...
Dubbio legittimo ma nel link c'è scritto:
And according to Lucid all of this is done with virtually no CPU overhead and no latency compared to standard single GPU rendering
Quindi non ci resta che attendere i test per verificare ciò che promettono.
Foglia Morta
20-08-2008, 19:46
potrebbe fare né più né meno quello che potrebbe fare transmeta, ovvero dare la possibilità a nVIDIA di sfruttare la licenza x86 senza cederla e senza essere acquisita. Ad nVIDIA non serve progettare una cpu ma implementare in una gpu parte dell'architettura x86 (possibilelmente non emulata).
l'opzione Stexar come la vedi ?
Pare che quegli ingegneri siano andati a lavorare per nVidia
http://www.theinquirer.net/gb/inquirer/news/2008/08/20/nvidia-announce-x86-chip
http://www.theinquirer.net/en/inquirer/news/2006/10/23/nvidia-stexar-move-turns-gun-turrets-on-amd-intel
http://www.theinquirer.net/en/inquirer/news/2006/10/19/nvidia-at-work-on-combined-cpu-with-graphic
Mercuri0
21-08-2008, 09:43
quoto, però resta che la monopolista (directx) si schiera per havock, che poi i giochi che sviluppa MS in sè siano pochi siamo d'accordo, quello che pesa secondo me, alla luce della "guerra" in atto sopratutto tra Intel ed Nvidia, è la scelta di campo fatta....stiamo a vedere
Secondo me la notizia che i giochi MS usino Havock non è granché rilevante.
Il fatto che i giochi MS usino Havock non rappresenta una scelta politica, ma solo una scelta tecnologica, e non c'entra con il DirectX.
Lato DirectX, invece, è prevista l'introduzione dei Compute Shaders che faciliterebbero la programmazione di "effetti fisici" in grado di girare su tutte le GPU
è vero, physx è 100 volte meglio di havock,
Proprio no: Havock è un motore fisico super ottimizzato per girare sulle CPU (e quindi "universale") mentre Physx si è evoluto e si sta tristemente evolvendo solo come un "demo" di motore fisico, che gira deliberatamente più lento in modalità CPU per far vedere come gira bene in modalità GPU.
In uno scontro di prestazioni Havock vs Physix (accelerato sulle GPU) sono certo che vincerebbe Havock, almeno per gli effetti d'uso generico, contando anche che Physix rallenta il rendering grafico.
L'ottimo si otterrà quando invece di queste magagne politiche tireranno fuori motori ottimizzati per girare sulle CPU e sulle GPU. Fino ad allora nVidia sta solo perdendo un'occasione: sta cercando di spingere Physix e CUDA come se fosse l'attore dominante del mercato del computing. Qualcuno dovrebbe ricordargli che quando si sconfina nel campo di lntel bisogna cambiare le strategie, e infatti vedrete che fine faranno Physix e CUDA tra un anno e mezzo.
p.s.: ricordo havock fx, l'ho riportato perchè secondo me nulla vieta che esso possa essere implementato su schede Nvidia (come physx su Ati), dipende tutto dai citati giochi di potere...
Havock FX era studiato per girare su tutte le GPU (probabilmente si appoggiava alle DirectX per il rendering). Con Havock + HavockFX avremmo avuto un motore fisico superottimizzato per girare sulla CPU e fare sulla GPU gli effetti per cui la GPU davvero sarebbe servita. lntel ha acquistato Havock sopratutto per uccidere HavockFX.
E soprattutto pare ( almeno sulla carta ) una valida all'alternativa all'AFR e SFR ( e pure al tile mi pare ).
Ma io penso che il futuro ci riservi schede grafiche multi-core ( fascia mainsream e performance ) e multi-core + multi-die ( per la fascia enthusiasth ) e Hydra potrebbe essere usata in maniera trasparente per l'utente finale nel caso vada sulla singola scheda grafica con più gpu.
Uffi, appena vedete hardware vi sembra che automaticamente funzioni tutto in maniera "trasparante", quando i problemi di compatibilità di quel sistema saranno molto peggio del CF / SLI. Ho trovato un post su beyond3d che riassume quello che pensavo anch'io, quindi mi risparmio di scriverlo :D
http://forum.beyond3d.com/showpost.php?p=1206691&postcount=18
Sul futuro del multi-core, multi-die e multi-gpu io ho come al solito opinioni molto diverse, ma ormai le conoscete. :)
Foglia Morta
21-08-2008, 10:46
Uffi, appena vedete hardware vi sembra che automaticamente funzioni tutto in maniera "trasparante", quando i problemi di compatibilità di quel sistema saranno molto peggio del CF / SLI. Ho trovato un post su beyond3d che riassume quello che pensavo anch'io, quindi mi risparmio di scriverlo :D
http://forum.beyond3d.com/showpost.php?p=1206691&postcount=18
Siamo tutti perplessi di fronte a novità che promettono mari e monti. Magari a fine anno ( o inizio 2009 ) avremo test attendibili: http://www.theinquirer.net/gb/inquirer/news/2008/08/20/lucid-makes-multi-gpus-easy
Sul futuro del multi-core, multi-die e multi-gpu io ho come al solito opinioni molto diverse, ma ormai le conoscete. :)
Si il problema è che ,da quel che si è capito fin'ora , le scelte alla base del multi-die e multi-core sono determinate da fatti economici come economie di scala nella progettazione e nella produzione.
Non possiamo avere le cifre necessarie per toglierci ogni dubbio sott'occhio però mi pare evidente che la logica dia ragione a questo approccio.
E' un rapporto costo/benefici più favorevole alla via multi. Larrabee si sa è multi-core , e si confronterà con le gpu DX11 di ATi e nVidia , IMO lo saranno anche quest'ultime.
appleroof
24-08-2008, 17:59
Per chi ha voglia di spulciarselo :D
http://softwarecommunity.intel.com/UserFiles/en-us/File/larrabee_manycore.pdf
Mercuri0
24-08-2008, 19:13
Larrabee si sa è multi-core
Larrabee è "multicore" come sono già "multicore" tutte le gpu-attuali -.-
Larrabee è "multicore" come sono già "multicore" tutte le gpu-attuali -.-
Esatto.
appleroof
26-08-2008, 08:58
Larrabee è "multicore" come sono già "multicore" tutte le gpu-attuali -.-
secondo qualcuno molto preparato non è esattamente così....
cmq, un pò di marketinghese che ogni tanto ci vuole: Nvidia snobba Larrabee (e questo vabbè...., l'autore dell'articolo cmq sottolinea come molte delle critiche fatte da Nvidia a Larrabee siano per nulla insensate)
NVIDIA, however, is not impressed. The problems inherent to multiprocessing have existed for decades, and the GPU designer sees no reason to think Intel can magically make them disappear. As NVIDIA's chief architect for the GT200 core, John Montrym, told PC Pro, "Every GPU we make, we always consider this type of design, we do a reasoned analysis, and we always conclude no. That's why we haven't built that type of machine."
Larrabee's die size, software-based approach to rendering, and power requirements could also spell trouble for the fledgling GPU. As Jon Stokes has previously covered, Larrabee's entire rendering pipeline is done in software, not hardware, and the GPU itself is a disruptive change on a scale that has only occurred once before in Intel's 40-plus years of history.
ma nello stesso tempo (analogia molto interessante quindi) riconosce praticamente ufficialmente di aver sottovalutato Ati con rv770
"We underestimated ATI with respect to their product," said Montrym. "We've looked very closely at this, and we know there are certain things we can do better."
http://arstechnica.com/news.ars/post/20080825-nvision-nvidia-disses-intel-cops-to-underestimating-ati.html
Mercuri0
26-08-2008, 10:03
secondo qualcuno molto preparato non è esattamente così....
Verissimo, semplicemente perché i core di Larrabee non sono confrontabili con le unità delle GPU.
Ma pensare Larrabee multicore come sono già "multicore" le GPU, è più corretto che pensare che Larrabee sia tante "GPU intere piccoline".
edit: il "più GPU sullo stesso die" è insensato, e anche il "multi GPU sullo stesso PCB" ha seri limiti, primo fra tutti il numero dei PAD di ciascun chip, che limita in basso le dimensioni del chip. (e ridurli non è per ora in prospettiva)
appleroof
26-08-2008, 10:41
Verissimo, semplicemente perché i core di Larrabee non sono confrontabili con le unità delle GPU.
Ma pensare Larrabee multicore come sono già "multicore" le GPU, è più corretto che pensare che Larrabee sia tante "GPU intere piccoline".
cut
ah ok, sono completamente d'accordo
Foglia Morta
27-08-2008, 10:05
http://www.informationweek.com/news/mobility/smart_phones/showArticle.jhtml?articleID=210200743&pgno=1&queryText=&isPrev=
non si capisce bene di cosa stia parlando il CEO di nVidia ( cose dette in questi giorni , quindi con RV770 in commercio da un bel po di tempo).
The first Larrabee chips will have more than a dozen cores on a single silicon chip, far fewer than graphics processors from Nvidia and Advanced Micro Devices. Nvidia is shipping GPUs with more than 200 cores today, and AMD is planning a high-end ATI graphics chip this year with more than 500 cores.
Ovviamente usa i termini che gli fanno comodo per sminuire Intel. Ma è chiaro che riguardo la propria gpu si sta riferendo a GT200 ( 240 stream processors che secondo lui sarebbero dei core ).
Ma riguardo ATi invece non è affatto chiaro , + di 500 core cosa ? se si considerano le alu sta già vendendo chip da 800 "cores" , se si riferisce agli shader processor ora sono a 160 , e secondo lui entro quest'anno ATi dovrebbe presentare una gpu con più di 500 sp ? :confused: , ma poi che ne sa lui ora :mc:
Mister Tarpone
27-08-2008, 11:54
e secondo lui entro quest'anno ATi dovrebbe presentare una gpu con più di 500 sp ? :confused: , ma poi che ne sa lui ora :mc:
se è vero la prendo al volo :asd:
appleroof
27-08-2008, 17:06
se è vero la prendo al volo :asd:
la 4870x2 ne ha 320 in tutto, forse un'ipotetico refresh di rv770 offrirebbe 250 sp quindi una x2 ne avrebbe 500....:boh:
restando in tema di vga future (anche se ot rispetto a larrabee) all'Nvision parlano ufficialmente di gx2 basata su g200 a 55nm
Al momento attuale le schede ATI Radeon HD 4870 X2 rappresentano la proposta più veloce tra quelle a singola scheda presenti sul mercato. NVIDIA è intenzionata a riprendere lo scettro prestazionzle?
E' per NVIDIA una vera e propria politica interna quella di detenere lo scettro di GPU più veloce disponibile sul mercato; riteniamo che il confronto tra schede ATI Radeon HD 4870 X2 e nostre proposte top di gamma non sia pienamente corretto, in quanto si tratta di soluzioni con due GPU. Al momento attuale proponiamo quale alternativa ad una scheda della concorrenza a due GPU una combinazione di due schede video GeForce GTX 200 con tecnologia SLI, in quanto riteniamo equivalenti piattaforme con una scheda video con due GPU e piattaforme con due schede video a singola GPU. Nel corso dei prossimi mesi, in ogni caso, vedremo al debutto nuove schede video NVIDIA capaci di riguadagnare lo scettro di più veloce tra le proposte per il segmento desktop top di gamma (si riferisce alle schede GX2, che dovrebbero debuttare anche nella famiglia di GPU GeForce GTX 200 non appena verrà completata la migrazione alla tecnologia a 55 nanometri anche per queste architetture ma che non sono ancora state annunciate).
http://www.hwupgrade.it/articoli/skvideo/2028/nvision-2008-nvidia-parla-di-visual-computing_8.html
qui invece si parla indirettamente di larrabee (con alcune conferme)
http://www.hwupgrade.it/articoli/skvideo/2028/nvision-2008-nvidia-parla-di-visual-computing_6.html
NVIDIA e in misura minore AMD usano una terminologia che non ha senso per le loro GPU. Chiamano processoer qualcosa che non e' un processore, ma un ALU + registri.
GT200 ha 10 processori, non 240. Ogni processore ha 24 ALU (divisi in 3 banchi da 8 ALU). Il pirmo G80 per esempio ha 8 processori con 16 ALU (divisi in 2 banchi da 8 ALU).
Larrabee avra' probabilmente 32 processori con 16 ALU l'uno (viste come un intero registro SIMD a 16 componenti in singola precisione), e pixel e vertex shaders saranno eseguiti in maniera scalare, come su G8x. G8x non sa manco cosa e' una operazione su vettori, lavora sempre e solo su uno scalare per volta..ma in parallelo su 16 o 24 pixel o vertici per processore.
appleroof
09-09-2008, 18:49
http://www.tgdaily.com/content/view/39211/135/
appleroof
12-11-2008, 14:04
vecchiotta ma mi era sfuggita (non so se già postata) e con una serie di info che mi sembrano interessanti, tra cui questa:
While I'm just spilling all kinds of Larrabee beans, I might as well drop another, performance-related tidbit that came my way. In an upcoming SIGGRAPH paper, Intel will claim that Larrabee has 20x the performance per watt of a Core 2 Duo and half the single-threaded performance. It also has a 4MB coherent L2, and three-operand vector instructions.
http://arstechnica.com/news.ars/post/20080708-intels-larrabee-gpu-based-on-secret-pentagon-tech-sorta.html
Kharonte85
12-11-2008, 16:59
Interessante ma
:eekk: che diavolo è successo al tuo avatar?
appleroof
12-11-2008, 17:42
Interessante ma
:eekk: che diavolo è successo al tuo avatar?
non sei l'unico che l'ha notato :D :D :D
appleroof
16-11-2008, 11:12
Interessante (sulla fisica)
http://download.intel.com/technology/architecture-silicon/GamePhysicsOnLarrabee_paper.pdf
http://www.intel.com/technology/visual/microarch.htm?iid=SEARCH
Foglia Morta
25-11-2008, 09:52
Altri schemi qui: http://pc.watch.impress.co.jp/docs/2008/1125/kaigai477.htm
http://pc.watch.impress.co.jp/docs/2008/1125/kaigai_5.jpg
http://pc.watch.impress.co.jp/docs/2008/1125/kaigai_6.jpg
http://pc.watch.impress.co.jp/docs/2008/1125/kaigai_7.jpg
http://pc.watch.impress.co.jp/docs/2008/1125/kaigai_8.jpg
http://pc.watch.impress.co.jp/docs/2008/1125/kaigai_10.jpg
appleroof
16-12-2008, 20:12
[....]The big unknown in all of this is Larrabee, Intel’s first fully programmable GPU. Naturally, I talked to Carrell and crew about Larrabee during my final 30 minutes in the room with them.
First we’ve got to get the let’s all be friends speak out of the way. ATI and Intel (and NVIDIA) all agree that data parallelism is incredibly important, it’s the next frontier of compute performance. We don’t exactly know in what form we’ll see data parallel computing used on desktops, but when it happens, it’ll be big. Every single person in that room also expressed the highest respect and regard for ATI’s competitors, that being said, they did have some criticisms.
Like NVIDIA, ATI views the Larrabee approach as a very CPU-like approach to designing a GPU. The challenge from approaching the problem of accelerating data parallel algorithms from the GPU side is to get the programming model to be as easy as it is on the CPU. ATI admitted that Intel does have an advantage given that Larrabee is x86 and the whole environment is familiar to existing developers. ATI believes that it’ll still have the performance advantage (a significant one) but that Larrabee comes out of the gates with a programming advantage
http://www.anandtech.com/video/showdoc.aspx?i=3469&p=11
Foglia Morta
17-12-2008, 08:03
Graphics Coming Back to Intel Architecture: Interview with Intel Visual Computing Group
http://www.xbitlabs.com/articles/video/display/intel-larrabee-interview.html
appleroof
17-12-2008, 16:35
la cosa che reputo più interessante in assoluto è questa:
X-bit labs: It is obvious that it is crucial to be the first with introduction of next-generation products. But it looks like Larrabee will not be the first DirectX 11 chip on the market. How do you plan to compete against rivals?
Nick Knupffer: We have not announced specific DirectX version support.However Larrabee features a software renderer, this means that supporting any API is simply a question of updating the driver.
in pratica tramite driver hai una vga pronta per dx10, dx11 dx12 ecc ecc...mi pare quasi una rivoluzione...peccato che ovviamente con il passare del tempo sarà la potenza di calcolo, in relazione ai giochi che si avvicenderanno, a costringere a cambiare vga (ma la chiameremo così Larrabee? :asd: ) e quindi siamo punto e a capo, almeno parlando strettamente di giochi
cmq, se sarà valida come alternativa, porterà sicuramente uno scossone al duopolio e se Nvidia e Ati reagiranno bene (non falliscono) noi ne avremo solo da beneficiarne...:sperem:
yossarian
17-12-2008, 16:42
la cosa che reputo più interessante in assoluto è questa:
X-bit labs: It is obvious that it is crucial to be the first with introduction of next-generation products. But it looks like Larrabee will not be the first DirectX 11 chip on the market. How do you plan to compete against rivals?
Nick Knupffer: We have not announced specific DirectX version support.However Larrabee features a software renderer, this means that supporting any API is simply a question of updating the driver.
in pratica tramite driver hai una vga pronta per dx10, dx11 dx12 ecc ecc...mi pare quasi una rivoluzione...peccato che ovviamente con il passare del tempo sarà la potenza di calcolo, in relazione ai giochi che si avvicenderanno, a costringere a cambiare vga (ma la chiameremo così Larrabee? :asd: ) e quindi siamo punto e a capo, almeno parlando strettamente di giochi
cmq, se sarà valida come alternativa, porterà sicuramente uno scossone al duopolio e se Nvidia e Ati reagiranno bene (non falliscono) noi ne avremo solo da beneficiarne...:sperem:
:D
l'avevo anticipato circa 20 giorni fa
http://www.hwupgrade.it/forum/showthread.php?t=1870824
ultimo messaggio della pagina
le operazioni di scheduling at compile time rendono l'architettura di larrabee molto flessibile e adattabile alle richieste dei diversi SM. In più, rispetto all'arhcitettura dei chip ATi (in cui manca lo scheduler come nel progetto intel), in larrabee mancano anche le fixed pipeline (ad esempio le RBE) e solo le operazioni di texturing sono, in parte, affidate a delle fixed function. Le alu di larrabee sono unità ancora più generiche di quelle ATi o nVIDIA e svolgono anche molti calcoli che nelle gpu sono tradizionalmente svolte dalle fixed pipeline.
SM sta per shader model
ATi è a mezza via con le operazioni di scheduling via SW ma con ancora fixed function pipeline nelle rop's e nelle tmu (anche larrabee le avrà nelle tmu, a dire la verità).
nVIDIA, invece, ha scelto la direzione opposta: tutte le operazioni gestite in HW (maggior efficienza ma minor flessibilità e alu terribilmente grandi)
Foglia Morta
17-12-2008, 16:56
:D
l'avevo anticipato circa 20 giorni fa
http://www.hwupgrade.it/forum/showthread.php?t=1870824
ultimo messaggio della pagina
le operazioni di scheduling at compile time rendono l'architettura di larrabee molto flessibile e adattabile alle richieste dei diversi SM. In più, rispetto all'arhcitettura dei chip ATi (in cui manca lo scheduler come nel progetto intel), in larrabee mancano anche le fixed pipeline (ad esempio le RBE) e solo le operazioni di texturing sono, in parte, affidate a delle fixed function. Le alu di larrabee sono unità ancora più generiche di quelle ATi o nVIDIA e svolgono anche molti calcoli che nelle gpu sono tradizionalmente svolte dalle fixed pipeline.
SM sta per shader model
ATi è a mezza via con le operazioni di scheduling via SW ma con ancora fixed function pipeline nelle rop's e nelle tmu (anche larrabee le avrà nelle tmu, a dir ela verità).
nVIDIA, invece, ha scelto la direzione opposta: tutte le operazioni gestite in HW (maggior efficienza ma minor flessibilità e alu terribilmente grandi)
La scelta in direzione opposta pare sia anti economica nel lungo periodo... quindi potrebbero anche cambiare totalmente l'architettura con le DX11 rinnegando le scelte fatte con GT200.
ps: non lo vuoi dire ma IMO anche tu sei dell'opinione che RV740 avrà 640 alu :D
yossarian
17-12-2008, 16:58
La scelta in direzione opposta pare sia anti economica nel lungo periodo... quindi potrebbero anche cambiare totalmente l'architettura con le DX11 rinnegando le scelte fatte con GT200.
ps: non lo vuoi dire ma IMO anche tu sei dell'opinione che RV740 avrà 640 alu :D
e, magari, sarà anche dx11 :D
Un cambio di architettura comportarebbe tempi lunghissimi e spese ingenti.
Foglia Morta
17-12-2008, 17:08
e, magari, sarà anche dx11 :D
Qualcuno di AMD parlando del gpgpu aveva detto che nel Q1 2009 avrebbero avuto una gpu più adeguata. E per esser adeguata secondo AMD significa che deve supportare Opencl e DX11 . Sarebbe bello ma sinceramente faccio fatica a crederci :(
Un cambio di architettura comportarebbe tempi lunghissimi e spese ingenti.
Se non cambiano radicalmente architettura allora vuol dire che quella caratteristica dello shader core di GT200 di cui non volevi parlare mesi fa è uno step eovolutivo importante in direzione DX11 :sofico: .
yossarian
17-12-2008, 17:20
Qualcuno di AMD parlando del gpgpu aveva detto che nel Q1 2009 avrebbero avuto una gpu più adeguata. E per esser adeguata secondo AMD significa che deve supportare Opencl e DX11 . Sarebbe bello ma sinceramente faccio fatica a crederci :(
anche io faccio fatica a credere che esca un'architettura che esponga le dx11 nel Q1 2009 :)
Se non cambiano radicalmente architettura allora vuol dire che quella caratteristica dello shader core di GT200 di cui non volevi parlare mesi fa è uno step eovolutivo importante in direzione DX11 :sofico: .
parli delle alu fp64? Non serviranno per i giochi, ma sicuramente per il gpgpu (infatti il supporto di G8x e derivati è incompleto e utile ad un numero limitato di applicazioni).
Foglia Morta
17-12-2008, 17:25
anche io faccio fatica a credere che esca un'architettura che esponga le dx11 nel Q1 2009 :)
quindi sarebbe solo questione di attendere l'uscita delle DX11 e relativi driver ATi. :sperem:
parli delle alu fp64? Non serviranno per i giochi, ma sicuramente per il gpgpu (infatti il supporto di G8x e derivati è incompleto e utile ad un numero limitato di applicazioni).
No altro ancora... parlando di GT200 io avevo detto che l'unica novità dello shader core di GT200 rispetto a G92 erano le alu fp64 . Tu , se ricordo bene , avevi detto che c'era dell'altro e non potevi parlarne
appleroof
17-12-2008, 17:39
:D
l'avevo anticipato circa 20 giorni fa
http://www.hwupgrade.it/forum/showthread.php?t=1870824
ultimo messaggio della pagina
le operazioni di scheduling at compile time rendono l'architettura di larrabee molto flessibile e adattabile alle richieste dei diversi SM. In più, rispetto all'arhcitettura dei chip ATi (in cui manca lo scheduler come nel progetto intel), in larrabee mancano anche le fixed pipeline (ad esempio le RBE) e solo le operazioni di texturing sono, in parte, affidate a delle fixed function. Le alu di larrabee sono unità ancora più generiche di quelle ATi o nVIDIA e svolgono anche molti calcoli che nelle gpu sono tradizionalmente svolte dalle fixed pipeline.
SM sta per shader model
ATi è a mezza via con le operazioni di scheduling via SW ma con ancora fixed function pipeline nelle rop's e nelle tmu (anche larrabee le avrà nelle tmu, a dire la verità).
nVIDIA, invece, ha scelto la direzione opposta: tutte le operazioni gestite in HW (maggior efficienza ma minor flessibilità e alu terribilmente grandi)
me l'ero perso :D
dunque, saresti d'accordo con il dire che Larrabee (parliamo di quello in questo tread no? :D), pur essendo enormemente più flessibile di Ati e Nvidia, all'atto pratico non porta alcun vantaggio all'utente finale?
Insomma, quello di essere una "scheda" pronta per qualsiasi libreria grafica è un vantaggio solo virtuale, perchè con il passare del tempo l'utente sarebbe comunque costretto a cambiare vga per la limitata potenza di calcolo non più al passo con le richieste dei giochi....come la vedi? (imho Larrabee stà diventando per me la più interessante novità all'orizzonte, molto più delle nuove Ati o Nvidia :D )
yossarian
17-12-2008, 17:44
quindi sarebbe solo questione di attendere l'uscita delle DX11 e relativi driver ATi. :sperem:
No altro ancora... parlando di GT200 io avevo detto che l'unica novità dello shader core di GT200 rispetto a G92 erano le alu fp64 . Tu , se ricordo bene , avevi detto che c'era dell'altro e non potevi parlarne
'sta cosa non me la ricordo proprio. C'è qualcosa di cui non si è parlato; ad esempio, la possibilità teorica di accelerare alcune operazioni in fp32 utilizzando le alu fp64 (una sorta di SFU che in G8x manca). Si tratta di una feature per ora solo su carta, non esposta neppure in CUDA (potrebbe rischiare di fare il paio con la MUL mancante di G8x, però). Ma non ha nulla a che fare con le dx11
Foglia Morta
17-12-2008, 17:58
'sta cosa non me la ricordo proprio. C'è qualcosa di cui non si è parlato; ad esempio, la possibilità teorica di accelerare alcune operazioni in fp32 utilizzando le alu fp64 (una sorta di SFU che in G8x manca). Si tratta di una feature per ora solo su carta, non esposta neppure in CUDA (potrebbe rischiare di fare il paio con la MUL mancante di G8x, però). Ma non ha nulla a che fare con le dx11
allora forse non si trattava di una novità relativa allo shader core ma che riguardava altro ancora. Terrò appunti delle quest insolute così al momento opportuno te le riproporrò :D
yossarian
17-12-2008, 22:34
me l'ero perso :D
dunque, saresti d'accordo con il dire che Larrabee (parliamo di quello in questo tread no? :D), pur essendo enormemente più flessibile di Ati e Nvidia, all'atto pratico non porta alcun vantaggio all'utente finale?
come no: ho un avga dx11 top oggi che diventa una dx11.1 o dx12 mainstream domani :D
me l'ero perso :D
Insomma, quello di essere una "scheda" pronta per qualsiasi libreria grafica è un vantaggio solo virtuale, perchè con il passare del tempo l'utente sarebbe comunque costretto a cambiare vga per la limitata potenza di calcolo non più al passo con le richieste dei giochi....come la vedi? (imho Larrabee stà diventando per me la più interessante novità all'orizzonte, molto più delle nuove Ati o Nvidia :D )
facili battute a parte, il grande salto verso le architetture unificate c'è stato e nelle fasi di transizione non è la potenza che difetta. R580 aveva una capacità di calcolo teorica comparabile a quella di G80 e su applicazioni dx9 non di rado si avvicinava alla 8800 320 Mb. Il problema è che non era compatibile con le nuove librerie. Con larrabee il problema della compatibilità sarà molto meno sentito. Certo, chi cambia spesso vga per avere sempre il top, sarà del tutto indifferente a questa possibilità. Per chi è abituato a tenere a lungo la popria scheda video, può essere un vantaggio avere, comunque, la compatibilità con le ultime api (anche se non la massima fluidità).
Questo è un aspetto molto interessante, anche per le SWHouse ed i produttori di HW: hai il vantaggio di lavorare su un'architettura che nel tempo non subisce grossi stravolgimenti se non, magari, nella potenza di calcolo; questo rende più semplici le ottimizzazioni.
Da questo punto di vista, l'approccio di intel può costituire un punto di svolta, accelerando, magari, anche la transizione da parte di amd verso gpu sempre più versatili e flessibili. L'adozione di filtri di tipo custom può spingere in questa direzione
Athlon 64 3000+
17-12-2008, 23:14
Interessante l'architettura Intel.
Più che altro sono curioso di sapere se RV870 uscirà veramente a fine 2009 e se per periodo Laberlee sarà gia fuori.
Foglia Morta
18-12-2008, 09:48
facili battute a parte, il grande salto verso le architetture unificate c'è stato e nelle fasi di transizione non è la potenza che difetta. R580 aveva una capacità di calcolo teorica comparabile a quella di G80 e su applicazioni dx9 non di rado si avvicinava alla 8800 320 Mb. Il problema è che non era compatibile con le nuove librerie. Con larrabee il problema della compatibilità sarà molto meno sentito. Certo, chi cambia spesso vga per avere sempre il top, sarà del tutto indifferente a questa possibilità. Per chi è abituato a tenere a lungo la popria scheda video, può essere un vantaggio avere, comunque, la compatibilità con le ultime api (anche se non la massima fluidità).
Questo è un aspetto molto interessante, anche per le SWHouse ed i produttori di HW: hai il vantaggio di lavorare su un'architettura che nel tempo non subisce grossi stravolgimenti se non, magari, nella potenza di calcolo; questo rende più semplici le ottimizzazioni.
Da questo punto di vista, l'approccio di intel può costituire un punto di svolta, accelerando, magari, anche la transizione da parte di amd verso gpu sempre più versatili e flessibili. L'adozione di filtri di tipo custom può spingere in questa direzione
PRO: possono accelerare di parecchio l'adozione di nuove api da parte delle software house, soprattutto se una gpu Intel sarà adottata da una console con un certo successo commerciale.
Contro: mi pare che sia anche la scelta ideale per Microsoft con la console che succederà la 360. Già Intel è piuttosto influente, se dovesse anche avere una gpu su una console la vedo triste per i suoi competitor.
Foglia Morta
18-12-2008, 13:18
http://www.hpcwire.com/blogs/Larrabee-for-HPC-Not-So-Fast-36336839.html
Larrabee for HPC: Not So Fast
For those of you who thought Intel was angling for an HPC play with its upcoming Larrabee processor family, think again. In case you're not a regular reader of this publication, Larrabee is Intel's manycore x86 GPU-like processor scheduled to debut in late 2009 or early 2010. With Larrabee, Intel is gearing up to challenge NVIDIA and AMD for GPU leadership, but doesn't appear interested in exploiting the chip for GPGPU.
Although the company has engaged in some mixed messaging with regard to Larrabee, recent conversations with Richard Dracott, the general manager of the Intel's high performance computing business unit, and Stephen Wheat, Intel's senior director of HPC, has convinced me that Larrabee will be targeted only for standard graphics applications and the more generalized visual computing realm. The latter does overlap into the HPC space, inasmuch as visual computing encompasses applications like video rendering and other types of compute-intensive image processing. But for general-purpose HPC, Intel has other designs in mind.
My first hint that Larrabee was being more narrowly targeted came from a recent chat with Dracott at the Wall Street on HPC Conference, where he talked about how the CPU will eventually prevail over accelerator offload engines (GPUs, FPGAs, Cell-type processors and FP ASICs), which I wrote about back in September. His basic point was that CPUs offered a better long-term value proposition than accelerators because industry standard processors like the x86 offer lower and more predictable software development costs. Also, any performance advantage demonstrated by an accelerator would eventually erode as CPUs continued to evolve -- a dubious assumption, I thought, since GPUs and FPGAs are evolving at least as quickly as CPUs. From his perspective, though, a relatively small number of HPC users would continue to experiment with acceleration over the next several years, but would eventually return to the comfort of the CPU.
What I didn't mention from that conversation is that while Dracott was trash talking accelerators, he also managed to diss Larrabee -- at least as a scientific computing architecture. Although Larrabee would at least offer an x86 compatible ISA, the problem, he said, was that the implementation contains some of the same drawbacks as the traditional GPU for scientific computing -- namely the lack of ECC memory to protect against soft errors and a shortage of double precision floating point capability. From his perspective that would prevent Larrabee or GPUs to be deployed more generally in high performance computing, "But," Dracott added, "we are working on products that will meet that need."
At this point, the nature of those products is a mystery. But Dracott did offer that "it will be feasible to have products that combine small IA cores and large IA cores that would be more suited for some HPC workloads." To speculate a bit, the architecture will likely have many of the attributes of Larrabee, that is, a manycore x86 architecture with fully coherent L1 and L2 caches. At least some of those cores will contain wide SIMD units similar to the Larrabee design, but those units will support lots of 64-bit floating point horsepower and be fully IEEE 754 compliant. Also, instead of GDDR-type memory, ECC-capable DDR memory will be supported. In short, it would be an x86 vector processor.
When I talked with Stephen Wheat at the Supercomputing Conference in Austin last month, he reiterated Dracott's (and Intel's) CPU-centric view of the universe. Wheat suggested that if accelerator features, like vector processing, become more widely used, they will naturally migrate onto the CPU. There is historical precedence for such a position. Before the 80486 chip, floating point operations were performed in external coprocessors (the x87 series). In the late 80s Intel decided FP operations were general-purpose enough to warrant transistor space on the CPU.
The rationale behind feature integration is that it's difficult to have different silicon engines move forward individually and maintain a balanced performance profile without being tied to a unified architecture. This dovetails nicely with Intel's business strategy, in which the x86 CPU ISA is the common denominator in all IT sectors -- desktop, mobile, enterprise, HPC, and, if Larrabee is successful, gaming and visualization.
So is now the time for heavy-duty vector processing to be integrated as well? "It's not that far in the future where the things that make these [accelerators] attractive can become an integral part of the processor itself," offered Wheat.
The market for this family of chips is not necessarily going to be driven by server-based HPC. Intel has a whole strategy around model-based computing, called RMS (PDF), which requires teraflops a-plenty. RMS encompasses a range of advanced apps from real-time rendering to portfolio management, and some of these will be running on desktop and mobile platforms.
The company is already starting to build a software foundation for such applications with Intel Parallel Studio. Released as a beta this week, Intel Parallel Studio is a suite of tools and libraries for Windows C/C++ developers that supports Threading Building Blocks (TBB), OpenMP, auto-vectorization and other parallel programming goodies. It is built around the concept of "forward scaling," Intel's nomenclature for automatic application scaling for multicore/manycore architectures.
The idea is that the same programs that are initially built for quad-core Nehalems can transparently scale up to 8-core Nehalems, manycore Larrabees, and all their descendents. Intel's research language for manycore throughput computing, Ct, will probably get productized into the company's software offerings at some point as these manycore products start to hit the streets. If all goes according to plan, by 2015 manycore x86 will be the dominant processor species and parallel programming will be the norm.
appleroof
18-12-2008, 14:11
come no: ho un avga dx11 top oggi che diventa una dx11.1 o dx12 mainstream domani :D
facili battute a parte,
ok. allora la vedi come me :D
il grande salto verso le architetture unificate c'è stato e nelle fasi di transizione non è la potenza che difetta. R580 aveva una capacità di calcolo teorica comparabile a quella di G80 e su applicazioni dx9 non di rado si avvicinava alla 8800 320 Mb. Il problema è che non era compatibile con le nuove librerie. Con larrabee il problema della compatibilità sarà molto meno sentito. Certo, chi cambia spesso vga per avere sempre il top, sarà del tutto indifferente a questa possibilità. Per chi è abituato a tenere a lungo la popria scheda video, può essere un vantaggio avere, comunque, la compatibilità con le ultime api (anche se non la massima fluidità).
Questo è un aspetto molto interessante, anche per le SWHouse ed i produttori di HW: hai il vantaggio di lavorare su un'architettura che nel tempo non subisce grossi stravolgimenti se non, magari, nella potenza di calcolo; questo rende più semplici le ottimizzazioni.
Da questo punto di vista, l'approccio di intel può costituire un punto di svolta, accelerando, magari, anche la transizione da parte di amd verso gpu sempre più versatili e flessibili. L'adozione di filtri di tipo custom può spingere in questa direzione
in che senso? :confused: e per Nvidia come la vedi?
Per il resto si aprono scenari molto molto interessanti per le ripercussioni su Ati e Nvidia...
yossarian
18-12-2008, 16:32
in che senso? :confused: e per Nvidia come la vedi?
Per il resto si aprono scenari molto molto interessanti per le ripercussioni su Ati e Nvidia...
RV770 è vliw; intel ha molta esperienza di architetture parallele vliw ed epic (itanium, ad esempio); in larrabee sarà il compilatore a gestire le operazioni di scheduling o, almeno, buona parte di esse (esiste una differenza tra vliw, vliw dinamico ed epic, sotto questo profilo). Quindi, come puoi capire, le similitudini sono molte. In rv770, però, le operazioni di rasterizzazione sono gestite da pipeline non programmabili. Questo limita la flessibilità del chip. Larrabee gestirà anche le operazioni delle rop's attraverso unità programmabili.
nVIDIA ha scelto la strada opposta: chip interamente gestito in HW di tipo superscalare, con elevata efficienza architetturale, ma quasi nulla flessibilità (lo dimostra anche il fatto che non sono riusciti ad implementare le dx10.1 nel passaggio da g80 a gt200, così come il fatto di aver dovuto far ricorso ad alu fisiche per implementare i calcoli a fp64 su gt200). La mancata adozione delle dx10.1 non è stata una scelta libera m,a obbligata: adottarle avrebbe significato modificare buona parte dell'architettura del chip, per poi modificarla di nuovo per le dx11.
appleroof
18-12-2008, 18:08
RV770 è vliw; intel ha molta esperienza di architetture parallele vliw ed epic (itanium, ad esempio); in larrabee sarà il compilatore a gestire le operazioni di scheduling o, almeno, buona parte di esse (esiste una differenza tra vliw, vliw dinamico ed epic, sotto questo profilo). Quindi, come puoi capire, le similitudini sono molte.
si..
In rv770, però, le operazioni di rasterizzazione sono gestite da pipeline non programmabili. Questo limita la flessibilità del chip. Larrabee gestirà anche le operazioni delle rop's attraverso unità programmabili.
nVIDIA ha scelto la strada opposta: chip interamente gestito in HW di tipo superscalare, con elevata efficienza architetturale, ma quasi nulla flessibilità (lo dimostra anche il fatto che non sono riusciti ad implementare le dx10.1 nel passaggio da g80 a gt200, così come il fatto di aver dovuto far ricorso ad alu fisiche per implementare i calcoli a fp64 su gt200). La mancata adozione delle dx10.1 non è stata una scelta libera m,a obbligata: adottarle avrebbe significato modificare buona parte dell'architettura del chip, per poi modificarla di nuovo per le dx11.
ok...ma la domanda che mi pongo è se l'entrata in scena di Larrabee con le caratteristiche da te elencate (come sempre in maniera chiara ed esaustiva anche se son concetti che ai non tecnici come me risultano ostici) non "costringa" Nvidia a rivedere completamente i propri progetti futuri (certo per le vga dx11 ormai la vedo durissima)
yossarian
18-12-2008, 22:49
si..
ok...ma la domanda che mi pongo è se l'entrata in scena di Larrabee con le caratteristiche da te elencate (come sempre in maniera chiara ed esaustiva anche se son concetti che ai non tecnici come me risultano ostici) non "costringa" Nvidia a rivedere completamente i propri progetti futuri (certo per le vga dx11 ormai la vedo durissima)
non credo: nVIDIA ha scelto la sua strada e difficilmente farà retromarcia. Sconfessare il porgetto G80 sarebbe ammetterne il fallimento. E sarebbe sbagliato e dannoso, considerato ciò che si investe in un progetto a livello di tempo e soldi. Ciò che può fare un'architettura superscalare può farlo anche una epic o una vliw: in maniera diversa, ovviamente e, a seconda, dell'applicazione, con risultati differenti. Ma non in misura take da poter dire che una scelta è sbagliata e l'altra è giusta. Si tratta di scelte progettuali diverse. L'unica cosa che, secondo me, rischia di penalizzare nVIDIA, è la decisione di restare aggrappati all'idea del chippone monolitico, a causa degli enormio costi e delle bassissime rese produttive. Certo, un'architettura superscalare è molto più rigida, ha alu più grandi (molto più grandi) e complesse e questo significa molta meno potenza teorica a parità di superficie; ma è anche più efficiente e permette di sfruttare quasi al massimo la potenza a disposizione, cosa che una epic o una vliw permettono di fare solo a condizione di fare un grosso lavoro di ottimizzazione sui driver e sulle applicazioni.
appleroof
19-12-2008, 12:54
non credo: nVIDIA ha scelto la sua strada e difficilmente farà retromarcia. Sconfessare il porgetto G80 sarebbe ammetterne il fallimento. E sarebbe sbagliato e dannoso, considerato ciò che si investe in un progetto a livello di tempo e soldi. Ciò che può fare un'architettura superscalare può farlo anche una epic o una vliw: in maniera diversa, ovviamente e, a seconda, dell'applicazione, con risultati differenti. Ma non in misura take da poter dire che una scelta è sbagliata e l'altra è giusta. Si tratta di scelte progettuali diverse. L'unica cosa che, secondo me, rischia di penalizzare nVIDIA, è la decisione di restare aggrappati all'idea del chippone monolitico, a causa degli enormio costi e delle bassissime rese produttive. Certo, un'architettura superscalare è molto più rigida, ha alu più grandi (molto più grandi) e complesse e questo significa molta meno potenza teorica a parità di superficie; ma è anche più efficiente e permette di sfruttare quasi al massimo la potenza a disposizione, cosa che una epic o una vliw permettono di fare solo a condizione di fare un grosso lavoro di ottimizzazione sui driver e sulle applicazioni.
perfetto, tutto chiarissimo...l'unica cosa che mi sento di "appuntare" è l'accenno all' "ammettere il fallimento di g80": non sarebbe un fallimento perchè parliamo (in ipotesi) semplicemente di un'architettura nuova per delle nuove librerie (certo molto più affini alle precedenti, sia hw che sw, che le dx10 rispetto alle dx9)....per fare una battuta non è che G80 abbia rappresentato l'ammettere il fallimento di G70 :D
cmq per tornare in topic i limiti che indicavi (in neretto) saranno ancora più evidenti in larrabee, sulla carta, almeno mi pare di capire....
Foglia Morta
19-12-2008, 16:04
Se ne era già parlato in questo thread... son curioso di vedere dei test
http://www.theinquirer.net/inquirer/news/117/1050117/intel-puts-lucid-hydra-on-x58
IT LOOKS LIKE Intel is not content with their x58 'Smackover' board, and is going to add a Lucid Hydra chip to the next revision. Yup, improved in every way, plus mix-and-match GPUs, what's not to love?
Early word from people who claim to have seen boards in the orient confirms what the moles say, a Lucid Hydra chip, plus a few other goodies like a LED status readout. Moles inside second biggest blue say that the board is pretty much changed everywhere in detail, and that can't be a bad thing.
This confirms what people told me a while ago, that Intel is taking gaming seriously and is listening to feedback. The last few Intel gaming boards have been fast, solid and feature laden, but lack that special pop the low-IQ set seems to crave. Luckily Intel isn't adding LEDs galore and shiny bits, just functionality and things that matter. Good for them.
In the end, you will get a fast board that won't have heatpipes that double as a house for your hamster, but you will get mix and match GPUs. This board is going to be one to watch.µ
Foglia Morta
29-12-2008, 13:07
Qualche altra slide ( non mi pare di averle già postate in passato ):
http://resources.vr-zone.com/image_deposit/up2/12305438580de0f142c1.jpg
http://resources.vr-zone.com/image_deposit/up2/1230545086e465928f04.jpg
http://resources.vr-zone.com/image_deposit/up2/123054515072e7921202.jpg
http://resources.vr-zone.com/image_deposit/up2/1230545203fc524d6503.jpg
yossarian
01-01-2009, 16:03
hai trovato una risposta alla domanda: "come fa intel ad ovviare all'inconveniente del nuimero massimo di core che possono essere serviti da un ring bus?" Di fatto mette più ring di cui una serie (quelli più sfruttati) per trasferire dati tra un numero limitato di core (traffico locale) e uno per mettere in comunicazione tutti i ring bus locali qualora si dovessero trasferire dati tra gruppi di core. Ogni stazione di "interscambio" tra i ring è anche un gate di accesso verso l'esterno
Buon anno
Foglia Morta
01-01-2009, 17:10
Si infatti sembra una soluzione efficiente ed allo stesso tempo piuttosto ovvia. Penso che non andranno perduti gli studi fatti da parte di ATi sul ring bus :D , magari potranno tornare utili in futuro
Buon anno anche a te
Foglia Morta
02-01-2009, 22:17
hai trovato una risposta alla domanda: "come fa intel ad ovviare all'inconveniente del nuimero massimo di core che possono essere serviti da un ring bus?" Di fatto mette più ring di cui una serie (quelli più sfruttati) per trasferire dati tra un numero limitato di core (traffico locale) e uno per mettere in comunicazione tutti i ring bus locali qualora si dovessero trasferire dati tra gruppi di core. Ogni stazione di "interscambio" tra i ring è anche un gate di accesso verso l'esterno
Buon anno
se ho capito bene quindi ogni ring stop del ring-bus che collega tutti gli altri "mini-ring" è collegato anche al bus esterno. Quindi se sono 16 core , 4 gruppi di 4 core e 4 gate collegati ciascuno ad un canale esterno di 64bit. In una slide di Intel si parlava di GDDR5 ma con un bus ampio "solamente" 256bit si potrebbe pensare che Larrabee prenda di mira la fascia performance come fa RV770 e per l'enthusiast potremmo vedere 2 gpu Larrabee. Ha senso ciò che dico ? :D
yossarian
03-01-2009, 00:32
se ho capito bene quindi ogni ring stop del ring-bus che collega tutti gli altri "mini-ring" è collegato anche al bus esterno. Quindi se sono 16 core , 4 gruppi di 4 core e 4 gate collegati ciascuno ad un canale esterno di 64bit. In una slide di Intel si parlava di GDDR5 ma con un bus ampio "solamente" 256bit si potrebbe pensare che Larrabee prenda di mira la fascia performance come fa RV770 e per l'enthusiast potremmo vedere 2 gpu Larrabee. Ha senso ciò che dico ? :D
potrebbero essere anche 8 i core collegati da un ring (sul tipo del cell). In tal caso, per 16 core sarebbero sufficienti due mini ring e un ring che li colleghi tra loro e li metta in comunicazione con l'esterno. Le difficoltà di ottimizzazione sono maggiori, ma non è impossibile. I 4 canali esterni sono quelli che comunicano con la vram (il che da un bus da 256 bit complessivi). IMHO, con 32 core è sufficiente raddoppiare questa architettura che ha il pregio di essere completamente modulare. In tal caso, l'interfaccia verso l'esterno sarebbe di 512 bit complessivi. Sul come si cpuò realizzare, le idee sono due: due gpu comunicanti tramite un canale dedicato (sul tipo di quello adottato da ATi sulla serie 4xx0 x2, oppure 4 mini ring collegati da un unico ring bus esterno, con 8 ring stop lungo il percorso.
Foglia Morta
03-01-2009, 13:07
potrebbero essere anche 8 i core collegati da un ring (sul tipo del cell). In tal caso, per 16 core sarebbero sufficienti due mini ring e un ring che li colleghi tra loro e li metta in comunicazione con l'esterno. Le difficoltà di ottimizzazione sono maggiori, ma non è impossibile. I 4 canali esterni sono quelli che comunicano con la vram (il che da un bus da 256 bit complessivi). IMHO, con 32 core è sufficiente raddoppiare questa architettura che ha il pregio di essere completamente modulare. In tal caso, l'interfaccia verso l'esterno sarebbe di 512 bit complessivi. Sul come si cpuò realizzare, le idee sono due: due gpu comunicanti tramite un canale dedicato (sul tipo di quello adottato da ATi sulla serie 4xx0 x2, oppure 4 mini ring collegati da un unico ring bus esterno, con 8 ring stop lungo il percorso.
Ma oltre alla modularità , possibilità di upgradare la gpu alle più recenti API via software e ottima scalabilità in fp64 quali altri vantaggi può avere quest'architettura ?
Se fossero 32 core e 16 ALU ciascuno fanno in tutto 512 ALU. Ad essere molto ottimisti direi che andrà a 2,5Ghz e fanno 2,5 - 2,6 Teraflop in fp32. IMHO un po pochini a fine 2009 , soprattutto se si considera che dovrebbe avere un efficienza più simile all'architettura ATi piuttosto che a quella nVidia che fa scheduling via hardware. Con Larrabee praticamente cercano minimizzare le fixed functions ma poi questo risparmio non si traduce in un reale vantaggio se riescono a metterci così poche ALU . Insomma gli svantaggi dell'architettura ATi + gli svantaggi dell'architettura nVidia , tutto per massimizzare la flessibilità. Non è un po pochino ?
yossarian
06-01-2009, 01:30
Ma oltre alla modularità , possibilità di upgradare la gpu alle più recenti API via software e ottima scalabilità in fp64 quali altri vantaggi può avere quest'architettura ?
Se fossero 32 core e 16 ALU ciascuno fanno in tutto 512 ALU. Ad essere molto ottimisti direi che andrà a 2,5Ghz e fanno 2,5 - 2,6 Teraflop in fp32. IMHO un po pochini a fine 2009 , soprattutto se si considera che dovrebbe avere un efficienza più simile all'architettura ATi piuttosto che a quella nVidia che fa scheduling via hardware. Con Larrabee praticamente cercano minimizzare le fixed functions ma poi questo risparmio non si traduce in un reale vantaggio se riescono a metterci così poche ALU . Insomma gli svantaggi dell'architettura ATi + gli svantaggi dell'architettura nVidia , tutto per massimizzare la flessibilità. Non è un po pochino ?
hai centrato il punto: quello delle ottimizzazioni. Con codice ottimizzato RV770, il più delle volte, starebbe agevolmente davanti a gt200. Intel punta molto sull'enorme parco di sviluppatori che lavorano su codice x86 e sul fatto che annovera tra le sue file alcuni tra i migliori programmatori di compilatori esistenti.
Inoltre il reale vantaggio della minimizzazione delle fixed function è che, in teoria (ovviamente), così facendo si dovrebbe riuscire a raggiungere un livello di occupazione delle unità di calcolo ancora maggiore rispetto a quanto avviene con architetture miste con alu programmabili e fixed pipeline. Infine, con l'adozione di algoritmi fdi filtraggio di tipo custom, l'importanza delle fixed function nelle rbe dovrebbe andare gradulmente scemando
Foglia Morta
06-01-2009, 12:26
hai centrato il punto: quello delle ottimizzazioni. Con codice ottimizzato RV770, il più delle volte, starebbe agevolmente davanti a gt200. Intel punta molto sull'enorme parco di sviluppatori che lavorano su codice x86 e sul fatto che annovera tra le sue file alcuni tra i migliori programmatori di compilatori esistenti.
Inoltre il reale vantaggio della minimizzazione delle fixed function è che, in teoria (ovviamente), così facendo si dovrebbe riuscire a raggiungere un livello di occupazione delle unità di calcolo ancora maggiore rispetto a quanto avviene con architetture miste con alu programmabili e fixed pipeline. Infine, con l'adozione di algoritmi fdi filtraggio di tipo custom, l'importanza delle fixed function nelle rbe dovrebbe andare gradulmente scemando
allora mi sa che con la prima generazione di gpu il reparto VCG farà la fame per uno o due anni :D . E penso anche che AMD avrà la sua gpu x86 , magari nel 2011 ( la seconda sfornata a 32nm ). Comunque son curioso di vedere Project Offset, quel gioco dovrebbe esprimere al massimo le potenzialità di Larrabee
Foglia Morta
13-01-2009, 10:10
Se ne era già parlato in questo thread... son curioso di vedere dei test
http://www.theinquirer.net/inquirer/news/117/1050117/intel-puts-lucid-hydra-on-x58
IT LOOKS LIKE Intel is not content with their x58 'Smackover' board, and is going to add a Lucid Hydra chip to the next revision. Yup, improved in every way, plus mix-and-match GPUs, what's not to love?
Early word from people who claim to have seen boards in the orient confirms what the moles say, a Lucid Hydra chip, plus a few other goodies like a LED status readout. Moles inside second biggest blue say that the board is pretty much changed everywhere in detail, and that can't be a bad thing.
This confirms what people told me a while ago, that Intel is taking gaming seriously and is listening to feedback. The last few Intel gaming boards have been fast, solid and feature laden, but lack that special pop the low-IQ set seems to crave. Luckily Intel isn't adding LEDs galore and shiny bits, just functionality and things that matter. Good for them.
In the end, you will get a fast board that won't have heatpipes that double as a house for your hamster, but you will get mix and match GPUs. This board is going to be one to watch.µ
Si parla di seconda metà del 2009 per Lucid...
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11408&Itemid=1
We had an interesting meeting with the president and CIO of Lucid, a company that gained a lot of attention at IDF 2008. Lucid promises a small chip that can make your two GPU scale almost linear. After a long discussion we learned that Linear is almost linear, and that linear is best case scenario and that real world performance should be close to linear.
This would mean that two GPUs, let's say in SLI or Crossfire, powered by Lucid chip and driver, could score close to 100 percent faster than a single GPU. Let's say that if a single GPU would score 100 FPS in one game, two would score close to 200FPS.
The chips that will find their place in both motherboards and graphics cards will appear on the market in 2H 2009. The prototypes are already finished, but the company didn't want to talk about any specific partners.
Anyone who has a PLX chip that makes two cards run together could be Lucid’s potential customer, and obviously some guys are interested. This leaves a lot of unclear questions to be answered, as we suspect that both ATI and Nvidia might have something against a chip that makes SLI and Crossfire look like child's play, and that this could lead to a driver that will block Lucid’s ability to shine.
We don’t want to talk about moral dilemmas, but we suspect that this might be the case. Lucid promised to show us a demo in the near future and we believe that Intel is keeping an eye on Lucid for its Larrabee school science project.
Foglia Morta
14-01-2009, 17:52
http://www.fudzilla.com/index.php?option=com_content&task=view&id=11450&Itemid=1
Sources close to Intel have told us that Intel is working together with Lucid on some secret project. If Lucid can pull of its promised close to linear performance out of two chips, more GPUs could mean even more performance virtually linear so to say.
Last week when we meet companies President and VP of Business development Mr. Offir Remez he did confirmed us that more chip means more linear performance. They don’t have to stop at three or four GPUs like Nvidia and ATI do, they can surpass this number.
With this in mind imagine how much good this chip could do to Larrabee and we’ve already reported that Larrabee has 50 to 80 cores. With the help of Lucid Hydra technology there might be place for some sort of collaboration, but if Lucid is so good, someone will buy it out sooner rather than later.
In case that Intel doesn’t need its internal Lucid, which we do believe will be the case, Intel might use the Lucid chip on its motherboards simply to stab both ATI and Nvidia and its Crossfire and SLI in the back. Once Larrabee comes out, there will always be possibility to put two Larrabee cards together and get more performance.
Foglia Morta
03-02-2009, 00:00
non sarà larrabee ma pare che Intel ci tenga a dire la sua nel gaming anche con i processori... magari incoraggerà lo sfruttamento dei quad core: http://news.cnet.com/8301-13924_3-10153373-64.html
Foglia Morta
06-02-2009, 15:19
http://channel.hexus.net/content/item.php?item=17124&page=5
HC: Is there still an opportunity for AMD's Fusion concept?
JP: Absolutely - and it will revolutionize the low end and even the midrange. Both AMD and Intel have pushed their GPU/CPU integrated parts back to 2011. That's not something to raise your eyebrows about or use as a predictive clue about the demise of the companies or the concept, but rather a clear indication of the benefit those integrated CPU/GPUs will get from 32nm.
HC: What are your expectations for Intel's Larrabee this year?
JP: Absolutely nothing. But next, OMG - watch out. This year will be a continuation of well placed and timed leaks with more tidbits of data, we may see a real spec sheet by Q4, and if we do it will be with first production units. But real production, and products you and I can buy won't show up till Q1'10 at the earliest as far as my crystal ball can tell.
Then when Larrabee (I like to call it Larry's Bee cause one of the prime developers is a guy named Lawrence) shows up it will give ATI and Nvidia a real run for the money - regardless of what you hear those two say about it.
However, ATI and Nvidia have had over a year so far and one to go to get ready for it, and they have probably 4x the number of world class graphics engineers that Intel has so they won't be easy to knock over or out perform them. That means it comes down to a marketing war and Intel's argument about programming environment. And that will not be proven out till we get to run some benchmarks which probably won't be till CeBIT 2010.
appleroof
07-02-2009, 20:32
http://arstechnica.com/gaming/news/2009/02/intel-is-shooting-for-playstation-4-but-has-it-scored.ars
La presentazione da cui sono tratte alcune delle slides viste finora.
http://s08.idav.ucdavis.edu/forsyth-larrabee-graphics-architecture.pdf
Ci sono tutte quelle del SIGGRAPH, per chi fosse interessato. ;)
http://s08.idav.ucdavis.edu/
Direi che è meglio se ci spostiamo tutti di qua, una volta fusi i 2 thread... ;)
Aggiungo solo un link ai miei passati interventi nell'altro thread, dato che credo che qualcosa non fosse stato postato:
http://www.hwupgrade.it/forum/showpost.php?p=26501730&postcount=5
http://www.hwupgrade.it/forum/showpost.php?p=26502038&postcount=6
E rinnovo il mio invito a yossarian, ma anche a nAo e gli altri utenti superesperti di HWU, contenuto nei post di cui sopra... :D
Foglia Morta
29-03-2009, 22:06
Un po di slide dal GDC: http://pc.watch.impress.co.jp/docs/2009/0330/kaigai498.htm
Dal mio blog:
C++ implementation of Larrabee new instructions (http://pixelstoomany.wordpress.com/2009/03/25/c-implementation-of-larrabee-new-instructions//)
Kharonte85
30-03-2009, 09:53
Larrabee, analisi tecnica: un mostro, almeno su carta
http://www.tomshw.it/guides/hardware/graphic/20090323/images/intel-larrabee,L-O-192588-13.jpg
http://www.tomshw.it/graphic.php?guide=20090323
Mah, io rimango ancora molto perplesso...
Presentazioni di Micheal Abrash e Tom Forsyth al GDC (in fondo alla pagina):
http://software.intel.com/en-us/articles/intel-at-gdc/ (http://software.intel.com/en-us/articles/intel-at-gdc)
Articolo di Abrash sul nuovo instruction set di Larrabee (LRBni):
http://www.ddj.com/hpc-high-performance-computing/216402188
Marco
Mi iscrivo, molto interessante.
Foglia Morta
09-04-2009, 07:51
http://www.computerbase.de/news/hardware/grafikkarten/2009/april/idf_intel_larrabee-wafer/
il wafer non è quello di larrabee, ma c'è qualche slide dall' IDF.
Visto che Intel vende il 60% dei suoi chip grafici per notebook, si sa se una soluzione Larrabee è prevista anche per questo mercato?
Foglia Morta
09-04-2009, 14:34
Visto che Intel vende il 60% dei suoi chip grafici per notebook, si sa se una soluzione Larrabee è prevista anche per questo mercato?
non mi pare sia stato detto nulla a riguardo.
Qui c'è un wafer di Larrabee... sembra enorme, tipo GT200.
http://www.hardware.fr/articles/757-4/idf-printemps-2009-pekin.html
non mi pare sia stato detto nulla a riguardo.
Qui c'è un wafer di Larrabee... sembra enorme, tipo GT200.
http://www.hardware.fr/articles/757-4/idf-printemps-2009-pekin.html
Ma essendo scalabile con meno core dovrebbe adattarsi no?
Foglia Morta
09-04-2009, 15:32
Ma essendo scalabile con meno core dovrebbe adattarsi no?
Secondo me si... però ancora non se ne è mai parlato. Data l'importanza di quel mercato penso proprio ci sarà una versione per notebook
Foglia Morta
12-05-2009, 10:32
il die di Larrabee: http://www.pcgameshardware.com/aid,683947/Detailed-Larrabee-Die-shot-shown-by-Intel/News/
Mercuri0
12-05-2009, 13:49
Ma essendo scalabile con meno core dovrebbe adattarsi no?
Nemmeno del GT200 si sono viste versioni per notebook. Se Larrabee è il pataccone visto in foto, entra solo nei notebook formato armadio, anche scalato.
Però è possibile che quello mostrato da lntel sia un esperimento a 65 nm. Magari a 32 ha già dimensioni più ragionevoli.
Andrea deluxe
12-05-2009, 14:06
Nemmeno del GT200 si sono viste versioni per notebook.
http://www.notebookcheck.it/Nvidia-GeForce-GTX-280M-Review.14747.0.html
Foglia Morta
12-05-2009, 15:01
http://www.notebookcheck.it/Nvidia-GeForce-GTX-280M-Review.14747.0.html
Pensa un po, segui il mondo delle schede grafiche quotidianamente e sono riusciti a confonderti... immagina quelli meno esperti. La GTX 280 M è basata su G92 ( c'è scritto anche nel link che hai postato )
Andrea deluxe
12-05-2009, 15:14
Pensa un po, segui il mondo delle schede grafiche quotidianamente e sono riusciti a confonderti... immagina quelli meno esperti. La GTX 280 M è basata su G92 ( c'è scritto anche nel link che hai postato )
infatti sono stato un po' superficiale...:(
Mercuri0
12-05-2009, 20:10
http://www.notebookcheck.it/Nvidia-GeForce-GTX-280M-Review.14747.0.html
http://www.avventurosamente.it/vb/attachments/110-pioneristica/1077d1199376284-nodi-nelson_ah_203-jpg
Scherzi a parte, i nomi delle schede video per notebook nVidia sono una carta geografica ennemila volte peggio di quelle dei desktop.
Ad esempio: se riesci a capire/informarti sulla differenza tra 9500M GE nell'XPS 13 di DELL e una 9500M GS, ti rinfranchi dalla svista sulla GTX280M ;)
(sono schede così "totalmente diverse" da fare impressione 2 volte... una delle due è al limite della truffa, e sul sito di DELL la sigla "GE" non ricordo neanche ci fosse)
Oppure se mi sai dire quel'è la più veloce tra una GT105 e una 9300M. Una volta me lo chiesero per telefono.
Anche se forse dovrei specificare 9300m "g qualcosa" per poter fare il confronto correttamente.
Mercuri0
13-05-2009, 21:53
Nulla di nuovo ?
Yep: 32 core, 45 nm, primo quadrimestre del 2010.
Foglia Morta
03-06-2009, 20:45
:ncomment:
http://www.tomshardware.com/news/intel-larrabee-nvidia-geforce,7944.html
Intel's 'Larrabee' on Par With GeForce GTX 285
Traveling to Taiwan for Computex usually yields a lot of components, future launches, and lots of random hardware.
This time however, we waned to find out a little bit more about what Intel had up its sleeve for Larrabee--the company's next generation graphics solution, that's suppose to blow the water out of everything in the market.
According to one close Intel partner that wished not to be named, this isn't the case. We were told that Larrabee is currently only capable of performance levels similar to Nvidia's GeForce GTX 285. While this isn't a bad thing in by any measure, it doesn't quite line up with a lot of the heat that we've been told.
The partner said that with current Larrabee silicon, things may change down the line, but it did not expect Intel's graphics solution to take the high-end of the market. At the time of Larrabee's release, both AMD/ATI and Nvidia will introduce newer and faster versions of its GPUs. Despite this, it's still important to keep in mind that Intel has always been an enabler of technology, pushing other industry leaders to adopt new technology. This was the case with Intel's infamous i740.
Intel told us several weeks ago that Larrabee would be taking the same approach as Intel's SSD drives. Silent. No frills. But market dominating when released.
At this point, we still think it's a bit too early to draw very solid conclusions, but, this is what we were told.
Kharonte85
03-06-2009, 20:59
Seee se andasse come una gtx 285 sarebbe un miracolo, non ci credo. :fagiano:
Foglia Morta
03-06-2009, 21:02
una gpu da 600mm^2 a 45nm che va come un GT200b sarebbe un disastro, non ci credo
una gpu da 600mm^2 a 45nm che va come un GT200b sarebbe un disastro, non ci credo
Boh, io non saprei, dopotutto bisogna definire meglio Larrabee.
A mio avviso non è solo una GPU, quindi anche se va come una GTX285 (che da buttare via non è affatto) ben venga, visto anche le altre feature che ha.
E poi non è specificato con quanti core è questo Larrabee. ;)
appleroof
03-06-2009, 21:12
Boh, io non saprei, dopotutto bisogna definire meglio Larrabee.
A mio avviso non è solo una GPU, quindi anche se va come una GTX285 (che da buttare via non è affatto) ben venga, visto anche le altre feature che ha.
E poi non è specificato con quanti core è questo Larrabee. ;)
oggi*: ma di quale versione di Larrabee parliamo? della top? Allora dovrà vedersela con gt300/rv870....
* cmq se la butti dimmi dove che la prendo al volo :asd:
EDIT (parte sottolineata): infatti, non avevo letto bene il post :P
Foglia Morta
03-06-2009, 21:20
Boh, io non saprei, dopotutto bisogna definire meglio Larrabee.
A mio avviso non è solo una GPU, quindi anche se va come una GTX285 (che da buttare via non è affatto) ben venga, visto anche le altre feature che ha.
E poi non è specificato con quanti core è questo Larrabee. ;)
Di Larrabee ad oggi mi pare se ne sia visto solo uno ed ha un die di 600mm^2. Il contesto sarebbe il Q1 2010, a 150 dollari magari potrebbe dire la sua.
Comunque è solo per dire... manca ancora troppo tempo, mancheranno respin e driver
Andrea deluxe
11-06-2009, 07:29
http://vr-zone.com/forums/442375/sylvie-s-news-evga-scoop-intelligent-innovation-imminent.html
Foglia Morta
16-06-2009, 10:56
Oltre evga pare che anche pc-partner farà schede con Larrabee: http://www.tweaktown.com/news/12514/rumours_pc_partner_to_retool_for_larrabee/index.html
Foglia Morta
19-06-2009, 11:14
http://www.fudzilla.com/content/view/14307/1/
Even Ottelini confirms
Intel got back to us after our original story that Larrabee got delayed to 2010 telling us that the chip was not delayed and that the plan was to launch it in 2009/2010 timeframe. According to this statement Intel claims Larrabee is still on schedule.
Intel´s representatives came back to us claiming that Larrabe in 2010 is not something new and that even Ottelini Intel´s CEO confirmed 1H 2010 as the target for Larrabee launch in Intel´s last conference call.
If they don´t delay if further, Larrabee will have to fight the one we call R800 and the one we call GT300, if not even their offspring.
Bill Dally nell'intervista dice che non è preoccupato per quello che sta facendo Intel con Larrabee.
Hardware Upgrade - Cosa ne pensa di Larrabee, ne teme, in qualche modo, l'arrivo sul mercato?
Risposta - Intel è sicuramente una compagnia da temere e che sa come lavorare e quando una azienda di questo tipo guarda e mira al tuo mercato principale, c'è da preoccuparsi. Dopo aver visto i primi dati e le prime informazioni, che anche voi dovreste conoscere, non mi posso dire preoccupato. Ci sono gravi mancanze nella loro pipeline grafica, che rendono il prodotto lento, soprattutto per il target cui intendono commerciallizzare la soluzione. Dai primi dettagli posso desumere anche che si tratterà di una soluzione dalle prestazioni modeste, ma che richiederà parecchia energia per funzionare. Sarà inoltre dotato solo di 4 threads per core, e questo rappresenta un limite soprattutto nella gestione della memoria.
Imho però dal lato GPGPU alla nVidia si stanno un po' cagando addosso. :asd:
Foglia Morta
21-07-2009, 11:02
http://www.xbitlabs.com/news/video/display/20090720145335_Intel_to_Begin_Educating_Software_Makers_How_to_Develop_for_Larrabee_Graphics_Chips_at_Siggraph.html
Intel Corp. will start educating software developers to use its code-named Larrabee graphics processing units (GPU) efficiently and utilize their unique capabilities at Siggraph conference due in early August ’09. This is virtually the first time when Intel plans to publicly reveal ways of advanced utilization of Larrabee among more or less wide audience.
During the presentation entitled” Preparing for Larrabee”, Intel will discuss Larrabee architecture as well as ways to program the Larrabee graphics processors. Thanks to compatibility with x86 instruction set as well as Larrabee new instructions (LNI), Intel’s first graphics processors in more than a decade enables a greater degree of programmability than previous GPUs. However, the opportunity to innovate presents a challenge: how can developers leverage their existing codebase and assets on this platform whilst opening up avenues to exploit the hardware?
During the presentation, the representatives for Intel will present some of the approaches available, along with insights into how developers can get ready to leverage them. Three fundamental approaches are covered: optimizing graphics API usage for the hardware’s unique features, sharing data between Direct3D and a Larrabee native application and writing pure Larrabee native applications.
In another presentation called “SIMD Programming with Larrabee” Intel plans to present some of the key features of LNI with particular emphasis on their utility in graphics applications. The material is aimed at developers already familiar, but not necessarily expert, with SIMD programming and C++.
This is practically the first time when Intel intends to go in-depth regarding Larrabee peculiarities in public. Considering the fact that the world’s largest chipmaker plans to initiate shipments of Larrabee in the first half of 2010, it is pretty late to start educating developers regarding its unique capabilities. In practice, this will mean that a significant number of game developers will hardly utilize Larrabee’s advanced features inline with its actual launch.
Siggraph conference will be held from the 3rd to the 7th August, 2009, whereas the Siggraph exhibition are scheduled for 4 – 6 August, 2009. Both events will be held in Ernest N. Morial Convention Center in New Orleans, Louisiana.
Bill Dally nell'intervista dice che non è preoccupato per quello che sta facendo Intel con Larrabee.
Hardware Upgrade - Cosa ne pensa di Larrabee, ne teme, in qualche modo, l'arrivo sul mercato?
Risposta - Intel è sicuramente una compagnia da temere e che sa come lavorare e quando una azienda di questo tipo guarda e mira al tuo mercato principale, c'è da preoccuparsi. Dopo aver visto i primi dati e le prime informazioni, che anche voi dovreste conoscere, non mi posso dire preoccupato. Ci sono gravi mancanze nella loro pipeline grafica, che rendono il prodotto lento, soprattutto per il target cui intendono commerciallizzare la soluzione. Dai primi dettagli posso desumere anche che si tratterà di una soluzione dalle prestazioni modeste, ma che richiederà parecchia energia per funzionare. Sarà inoltre dotato solo di 4 threads per core, e questo rappresenta un limite soprattutto nella gestione della memoria.
Imho però dal lato GPGPU alla nVidia si stanno un po' cagando addosso. :asd:
XD...
Foglia Morta
11-08-2009, 10:21
si parla di larrabee a 16 core... direi che sia brasiliano: http://www.youtube.com/watch?v=3AFi6y1Ap-c
Andrea deluxe
19-08-2009, 13:00
http://www.fudzilla.com/content/view/15098/1/
Andrea deluxe
19-08-2009, 18:34
http://techpulse360.com/2009/08/13/larrabee-needs-solid-state-drives-to-be-interesting-intel-says/
Foglia Morta
19-08-2009, 22:11
http://www.semiaccurate.com/2009/08/19/intel-use-larrabee-graphics-cpus/
ONE OF THE best open secrets in the industry is about Larrabee and it's eventual integration into Intel's core Core CPU line. It is going to happen, just a bit later than many expect.
The integration is set for the Haswell generation, just over three years from now. For those not up on the current Intel long term roadies, the current core is called Nehalem and it is followed by a 32nm shrink named Westmere due late this year. In late 2010, we have another core called Sandy Bridge. It is followed up by Ivy Bridge, a shrink to 22nm in late 2011. Late the following year, 2012, wewill see the debut of a core called Haswell.
Even if some Intel execs dare not utter it's name, it was officially disclosed in slides at the Spring 2008 IDF in Shanghai. You can see the slide in question on CarardPC here. The specs of the chip itself are still a little fuzzy, but given it is three years out, that is to be expected. The one thing we can say for sure is that it will have Larrabee compatible graphics on die.
The current chipsets, soon to be CPUs, have GenX graphics. No, not the Billy Idol band, but the architecture that took the bottom of the market by storm with the 965G, and continued to set new lows with the G35 and G45,and it will soldier on for another 3 years before it is finally put down.
Although the GenX architecture is strongly rumored to have finally been done right in the G55 generation, it is running out of steam. Larrabee needs to have the surrounding software infrastructure built up, both drivers and compatible programs that hit the metal directly, before Haswell debuts.
Given how much work it takes to get a solid and capable driver set out, the Larrabee team has a lot of work ahead of them. It is going to be very interesting to see not only how well, but also how soon all this software gets fleshed out.S|A
Foglia Morta
17-09-2009, 07:50
http://www.semiaccurate.com/2009/09/16/new-larrabee-silicon-taped-out-weeks-ago/
New Larrabee silicon taped out weeks ago
Plagues of bugs quashed
IT LOOKS LIKE Larrabee, Intel's upcoming GPU++, is about to have new silicon in short order. The B0 stepping taped out about a month ago, so there should be some public showings soon.
B0 taped out on August 15, and the silicon is winding it's way through the fabs now. Even with Intel's manufacturing prowess, making those parts and bringing up the new silicon takes time. It is going to be a really close call on them making showable boards before IDF or not. Here's to hoping.
Word on the street is that Larrabee has a host of bugs which prevented public showings of the Ax silicon. This is not uncommon for a new architecture, and a new paradigm only adds to the pain. That said, almost all problems are said to be fixed in the move from Ax to B0 silicon. If schedules don't allow for the new stepping to be shown at IDF next week, expect a flood of demos at the next major conference.
From the looks of things, Larrabee is going to be pulled from a shroud of mystery and negative rumor into the light very soon. Only then will we see if it lives up to the hype or not. Game on in a matter of weeks.S|A
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.