PDA

View Full Version : [Thread Ufficiale] Aspettando Larrabee


Pagine : 1 [2]

Andrea deluxe
23-09-2009, 16:30
http://www.youtube.com/watch?v=G-FKBMct21g&feature=player_embedded#t=22

Andrea deluxe
23-09-2009, 17:49
http://www.youtube.com/watch?v=b5TGA-IE85o&NR=1

appleroof
26-09-2009, 11:49
Si parla di Larrabee

As for Larrabee, Intel's Sean Maloney showed a real-time ray-tracing demo that seemed to run at somewhere around 25 FPS or less. The demo was interesting graphically the way that, say, solo bassist Stanley Clark is interesting musically—you're mightily impressed by the sight of something so difficult being done with such speed, but the end result isn't really the kind of thing you want to rock out to on a regular basis. The real-time ray tracing stuff just doesn't look that great yet, and it probably won't look as good as rasterized graphics anytime soon.

ma è interessante anche per il resto http://arstechnica.com/hardware/news/2009/09/amds-latest-takes-gpu-crown-intels-larrabee-takes-a-bow.ars

TheDarkAngel
26-09-2009, 12:30
Si parla di Larrabee

As for Larrabee, Intel's Sean Maloney showed a real-time ray-tracing demo that seemed to run at somewhere around 25 FPS or less. The demo was interesting graphically the way that, say, solo bassist Stanley Clark is interesting musically—you're mightily impressed by the sight of something so difficult being done with such speed, but the end result isn't really the kind of thing you want to rock out to on a regular basis. The real-time ray tracing stuff just doesn't look that great yet, and it probably won't look as good as rasterized graphics anytime soon.

ma è interessante anche per il resto http://arstechnica.com/hardware/news/2009/09/amds-latest-takes-gpu-crown-intels-larrabee-takes-a-bow.ars

questa parte mi getta un pò di sconforto :(

Kharonte85
26-09-2009, 19:26
Ho come la sensazione che stavolta Intel paghera' la sua "arroganza" evidentemente la mancanza di know how ha pesato...e non poco...tutto quello che si è visto è stato a dir poco deludente e il continuo rinvio di notizie non fa presagire nulla di buono...mah

Andrea deluxe
27-09-2009, 17:00
http://i279.photobucket.com/albums/kk141/overclock_photobucket/misc/2009092507391151743877397.png
http://i279.photobucket.com/albums/kk141/overclock_photobucket/larrabee/larrabee_prototype.png
http://i279.photobucket.com/albums/kk141/overclock_photobucket/misc/200909250739084879200016.png

http://www.v3.co.uk/v3/video/2250005/intel-shows-larrabee

goldorak
27-09-2009, 18:59
Beh ragazzi, auguratevi che Larrabee funzioni e abbia prestazioni competitive perche' altrimenti mi sa che Intel si compra Nvidia e cosi' taglia la testa al toro.

A.L.M.
27-09-2009, 23:48
questa parte mi getta un pò di sconforto :(

Mi sembra anche normale: il raytracing in realtime richiede un'immensità di risorse, e non penso fosse lecito credere che il raytracing avrebbe preso il posto

Ho come la sensazione che stavolta Intel paghera' la sua "arroganza" evidentemente la mancanza di know how ha pesato...e non poco...tutto quello che si è visto è stato a dir poco deludente e il continuo rinvio di notizie non fa presagire nulla di buono...mah

Boh...
Da un certo punto di vista è da premiare la spinta di Intel verso un'innovazione, il mondo delle schede grafiche in fondo sta arrivando ad un'impasse... Con la rasterizzazione ad un certo punto si arriverà ad un limite dettato dall'impossibilità di cambiare processo produttivo con facilità. Come sappiamo, le aree fixed function sono molto più grandi di quelle programmabili, quindi già in un chip come RV870 ci entrerebbero probabilmente con facilità il doppio o anche più di SP, eliminando TMU e ROPs. Ovvero già oggi potremmo avere sistemi da oltre 5 TFlops... Il problema è che occorrerebbe cambiare radicalmente il modo in cui si crea l'aspetto puramente grafico di un vg...

Beh ragazzi, auguratevi che Larrabee funzioni e abbia prestazioni competitive perche' altrimenti mi sa che Intel si compra Nvidia e cosi' taglia la testa al toro.

Potrebbe essere uno scenario interessante, ma credo che se non l'hanno già fatto ci sia un motivo... Intel avrebbe una fetta troppo grande del mercato delle schede grafiche (includendo le integrate), dunque l'acquisizione con tutta probabilità verrebbe bloccata dall'antitrust competente...

Capozz
27-09-2009, 23:59
A giudicare da quello che si legge Larrabee rischia di essere una delusione colossale, anche perchè non si sa quando uscirà e nel frattempo Amd e Nvidia, ovviamente, tirano fuori prodotti sempre più potenti

Foglia Morta
03-11-2009, 09:11
A giudicare da quello che si legge Larrabee rischia di essere una delusione colossale, anche perchè non si sa quando uscirà e nel frattempo Amd e Nvidia, ovviamente, tirano fuori prodotti sempre più potenti

Si parla di metà 2010.

Vedo che le aspettative sono molto alte con Larrabee :asd: :

http://www.digitimes.com/news/a20091103PD203.html

Intel CEO promotes Larrabee privately during China visit

Intel CEO Paul Otellini has privately talked to several China-based graphics card makers to promote its Larrabee GPU, which is set to launch in 2010, during a recent visit, according to sources at graphics card makers.

The sources revealed that Intel plans to offer preferential pricing for the GPU purchased by itself, and bundled with other Intel products to attract partners.

Although several first-tier graphics card makers remain conservative about adopting the GPU initially due to fears the chip may still have bugs; however, they expect Larrabee to have a chance of competing against AMD and Nvidia after two years.

goldorak
03-11-2009, 09:17
Si parla di metà 2010.


The sources revealed that Intel plans to offer preferential pricing for the GPU purchased by itself, and bundled with other Intel products to attract partners.

Although several first-tier graphics card makers remain conservative about adopting the GPU initially due to fears the chip may still have bugs; however, they expect Larrabee to have a chance of competing against AMD and Nvidia after two years.[/I]


Ah ah ah Intel non si smentisce mai.
Visto che Larrabee fa schifo via di bundle con i processori. :asd:
Azz si meritano un altra megamulta ma questa volta da 5 miliardi di €.
Purtroppo ho l'impressione che Larrabbe come scheda dedicata non potrai mai competere con AMD/Nvidia. :( Peccato ci speravo tanto.

Andrea deluxe
04-11-2009, 07:22
http://www.digitimes.com/news/a20091103PD203.html

Foglia Morta
05-11-2009, 06:58
Ah ah ah Intel non si smentisce mai.
Visto che Larrabee fa schifo via di bundle con i processori. :asd:
Azz si meritano un altra megamulta ma questa volta da 5 miliardi di €.
Purtroppo ho l'impressione che Larrabbe come scheda dedicata non potrai mai competere con AMD/Nvidia. :( Peccato ci speravo tanto.

A proposito:

http://www.xbitlabs.com/news/cpu/display/20091104200351_Intel_Accused_of_Giving_Dell_6_Billion_for_Exclusivity.html

Intel Accused of Giving Dell $6 Billion for Exclusivity.

The state of New York has filed a lawsuit against Intel Corp. accusing the chip giant of paying billions of dollars to computer makers in order to discourage them from using microprocessors by Advanced Micro Devices. Dell alone allegedly received $6 billion dollars between 2002 and 2007 and sometimes those payments exceeded Dell’s profits.

The lawsuit alleges Intel paid computer makers, including IBM and HP, to discourage them from utilizing microprocessors produced by Intel’s arch-rival AMD, reports Dow Jones Newswires. For example, as a part of the agreement, Intel compensated below-cost bids against rivals offering AMD-based desktops, servers or workstations by Dell in order to slowdown the increase of AMD’s market share.

Under a secret pact named the "Mother of all Programs", Intel paid Dell a rebate based on the total cost of central processing units the computer maker bought, the lawsuit claims. The percentage of the rebate could fluctuate, but reached up to 16% as Dell mulled over using AMD processors. Moreover, in one fiscal quarter Intel’s payments constituted 116% of Dell's reported net income, according to the lawsuit.

Intel has already faced similar lawsuits in Europe, Japan, South Korea and the U.S., therefore, the current accusations hardly change the situation drastically.

Dell, HP and Dell declined to comment, but Intel added that it would defend itself. IBM said it would co-operate with the investigation.

Fosse vero... è impressionante la quantità di soldi che questi possono spendere e nonostante ciò ottenre larghi profitti. Se Intel ha speso 6 miliardi di dollari solamente con DELL chissà quanti ne hanno spesi in tutto con anche IBM e HP. Poi anche IBM è coinvolta :confused: , proprio loro che hanno una stretta collaborazione con AMD.

Se AMD riuscisse a farsi dare $6 miliardi è come se gli avessero regalato ATi :asd: ( e ne avanzerebbero anche )

Kharonte85
06-11-2009, 10:25
Bellissima...:rotfl: :rotfl: :rotfl:

appleroof
14-11-2009, 08:23
http://arstechnica.com/hardware/news/2009/11/amd-avoiding-larrabee-route-on-road-to-cpugpu-fusion.ars

papafoxtrot
14-11-2009, 12:01
salve a tutti, mi iscrivo.
Penso che come scheda grafica larrabee faticherà ad essere competitivo, proprio per la mancanza di ottimizzazione e aree fixed function, che svolgono il loro lavoro in modo estremamente efficiente.
Insomma potrebbe essere potenzialmente più versatile, ma meno adatto a eseguire un rendering rastering in modo efficiente (alias, scaldando e consumando poco).

Io lo vedo quindi più come un grosso grosso processore, adatto ad eseguire elaborazioni parallelizzabili x86, e dunque codice praticamente già disponibile.
Ma anche qui credo che, vlendo scrivere un'applicazione da zero, si possano ottenere prestazioni maggiori da una scheda nvidia/ati che non da larrabee.

E qui l'ultimo mio dubbio: se larrabee fosse stato presentato nel corso di quest'anno e iniziasse ad essere venduto all'inizio del 2010, come si diceva l'anno scorso, esso avrebbe ottenuto subito un posto nel mercato professionale (rendering, elaborazioni fisiche, fluidodinamica, FEM...). Purtroppo se continua a tardare il lavoro su CUDA e OpenCL avanza e fra due anni la maggior parte di queste applicazioni potrebbero essersi spostate su GPU, rendendo larrabee un chip meno efficiente di altri. Il suo punto di forza insomma, le x86, potrebbe venire meno perché in mancanza di chip così potenti le applicazioni più pesanti si spostano su GPU.
Per fare un esempio in ambito rendering 3d Nvidia si è comprata mental image mentre chaos group ha già proposto un vray RT in versione CUDA e prima di commercializzarlo lo porta su openCL....
E una volta fatto il passo credo sarà molto molto difficile tornare indietro.

Non lo vedo bene larrabee.... Mi sa che intel ci smenerà tanti tanti, tanti soldi.

Resto comunque curiosissimo di vedere cosa ne esce, se sarò smentito larrabee potrebbe essere una grande risorsa.

halduemilauno
02-12-2009, 10:28
http://www.brightsideofnews.com/news/2009/12/2/intel-larrabee-finally-hits-1tflops---27x-faster-than-nvidia-gt200!.aspx
;)

Ren
04-12-2009, 15:33
Il test pare sfruttare una delle caratteristiche chiave di larrabee, ossia la capacità di ridurre le chiamate load & store, inoltre vengono quasi confermati i 32 core.
Il clock se il test si sviluppa linearmente dovrebbe essere intorno ai 1600-1900 mhz.

Foglia Morta
04-12-2009, 23:24
:eek: http://www.semiaccurate.com/2009/12/04/intel-kills-consumer-larrabee-focuses-future-variants/ :eek:

Intel kills consumer Larrabee, focuses on future variants

Not a shock, dev and HPC platform at first

INTEL HAS FINALLY done what we had all expected them to do, and pulled the plug on the consumer version of Larrabee. In a statement today, Intel said that the chip would be a development platform and an HPC part, but no retail version.

This change of direction was pretty well assured because the first Larrabee chip was so late. If you are 1 year late in the GPU business, that is an unrecoverable deficit. While some may say that this is a failure, they probably don't understand the magnitude of the task that Intel undertook, it is not simply a GPU, it is the next generation of vector compute parts.

Looking into the crystal ball, we see that Larrabee 1 and 2 were very similar, and Larrabee 3 was a very different part. Given that, we would expect Larrabee 2 to be dropped as well, and effort to focus on Larrabee 3 as a GPU.

The more interesting thing is the release of an HPC SKU, so there will be Larrabee's available for that task. Given that it was always going to be a better HPC part than a GPU, this is a good step to get the parts out into the field.

At SemiAccurate, we have been waiting to see Larrabee for a long time, the author was the first to break the code name more than three years ago, and the first to describe the architecture almost three years ago. It was a good idea then, and it is a good idea now.

Given the likely downplaying of two generations of parts, I guess we will have to wait a while longer. The end result is still the right thing for Intel, and the future of computing, it will just take a bit longer to get there.S|A

GOWMarcus
04-12-2009, 23:28
penso che intel con larrabee mettere AMD/ATi e Nvidia alle corde :O

Foglia Morta
04-12-2009, 23:32
penso che intel con larrabee mettere AMD/ATi e Nvidia alle corde :O

In un futuro lontano :D

http://news.cnet.com/8301-13924_3-10409715-64.html

Intel: Larrabee graphics chip delayed, launching only as 'kit'

Intel said Friday that its Larrabee graphics processor is delayed and that the chip will initially appear as a software development platform only.

This is a blow to the world's largest chipmaker, which was looking to launch its first discrete (standalone) graphics chip in more than a decade.

"Larrabee silicon and software development are behind where we hoped to be at this point in the project," Intel spokesperson Nick Knupffer said Friday. "As a result, our first Larrabee product will not be launched as a standalone discrete graphics product," he said.

"Rather, it will be used as a software development platform for internal and external use," he added. Intel is not discussing what other versions may appear after the initial software development platform product, or "kit," is launched next year.

Graphics chip analyst Jon Peddie, president of Jon Peddie Research, said Intel is not hitting performance targets and this became apparent at the SC09 supercomputing conference last month. "Justin Rattner (Intel Senior Fellow) demonstrated Larrabee hitting one teraflop, which is great but you could walk across the street and buy an ATI graphics board for a few hundred dollars that would do five teraflops."

Larrabee, a chronically delayed chip, was originally expected to appear in 2008. It was slated to compete with discrete graphics chips from Nvidia and Advanced Micro Devices' ATI graphics unit.

Intel would not give a projected date for the Larrabee software development platform and is only saying "next year."

Intel says its plans are unchanged to deliver this month the first chip with graphics integrated onto the CPU. This new Atom processor is referred to as "Pineview" (the platform is called "Pine Trail") and will be targeted at Netbooks.

Kharonte85
05-12-2009, 08:02
Intel cancella le prime GPU della famiglia Larrabee

Intel ha ufficialmente comunicato la cancellazione della prima soluzione della famiglia Larrabee prevista al debutto nel canale retail.

http://www.hwupgrade.it/news/skvideo/intel-cancella-le-prime-gpu-della-famiglia-larrabee_30990.html


nel 2012 nel migliore dei casi....un bel Flop...ma ormai era nell'aria da un po'.

appleroof
05-12-2009, 08:56
Intel cancella le prime GPU della famiglia Larrabee

Intel ha ufficialmente comunicato la cancellazione della prima soluzione della famiglia Larrabee prevista al debutto nel canale retail.

http://www.hwupgrade.it/news/skvideo/intel-cancella-le-prime-gpu-della-famiglia-larrabee_30990.html


nel 2012 nel migliore dei casi....un bel Flop...ma ormai era nell'aria da un po'.

peccato....mi sarebbe cmq piaciuto avere un'altra alternativa

vedremo come evolverà la situazione, chissà che tra un paio di anni avremo una vga Intel con il know-how acquisito con l'acquisto di Nvidia :sofico: :D

paolox86
05-12-2009, 11:47
Lol! Ma non avevano solo pochi girni fa esaltato i primi benchmark preliminari?

GOWMarcus
05-12-2009, 12:13
Intel sta aspettando che le quotazioni di Nvidia scendano per poi acquistarla :D

Jackaos
05-12-2009, 13:02
Spero proprio di no, e spero che Fermi sia la pietra miliare che nVidia vuole, e che vada come il vento.

Kharonte85
05-12-2009, 13:22
peccato....mi sarebbe cmq piaciuto avere un'altra alternativa

vedremo come evolverà la situazione, chissà che tra un paio di anni avremo una vga Intel con il know-how acquisito con l'acquisto di Nvidia :sofico: :D
Puo' succedere di tutto....non so se c'è qualche bega legale che impedirebbe l'acquisiszione di Nvidia pero' sicuramente si puo' dire che l'ipotesi sarebbe ultrasensata dato che Intel&Nvidia si completerebbero a vicenda come hanno fatto AMD&ATI...il "problema" è che Nvidia al momento è in salute e non penso che voglia vendere la pelle facilmente.

Foglia Morta
13-03-2010, 07:58
Intel Has a Luxury of Releasing Larrabee in Its Own Time – Larrabee Engineer.

Intel’s Larrabee Set to “Come Back with a Vengeance” (http://www.xbitlabs.com/news/video/display/20100312095318_Intel_Has_a_Luxury_of_Releasing_Larrabee_in_Its_Own_time_Larrabee_Engineer.html)

dewwwxx84
13-03-2010, 11:29
:rolleyes: Speriamo bene, mi piacerebbe una belle VGA INTEL nel case.

Foglia Morta
15-03-2010, 22:37
Boh , avrei detto un anno di tempo dalla presentazione della gpu discreta all' integrazione nella cpu di un core gpu ma per 'sta benedetta integrazione pare che ci sia tantissimo da aspettare e mi fa pensare male anche per la gpu discreta: http://www.semiaccurate.com/2010/03/15/haswell-has-sucessor/

dewwwxx84
15-03-2010, 23:01
speriamo sia il prima possibile, fosse x me' vorrei vedere VGA nuove ogni 3 mesi...

Ren
15-03-2010, 23:40
In una architettura vliw che dipende dal compilatore, come si pone rimedio alle prestazioni per i giochi che nascono senza il supporto dei coders ?
I soli driver possono farsi carico del ottimizzazione ?

Secondo voi ha influito più l'aspetto hardware o quello del supporto software ?

Lo chiedo pur sapendo che il processo produttivo era inadeguato ad ospitare un chip di tale complessità, inoltre la scelta di emulare le ROP non è stata delle più felici...

Ren
16-03-2010, 11:46
Credo che come l'hanno pensato Larrabee non sia in grado nemmeno lontanamente di competere con la concorrenza sul fronte videogame. Almeno non in quanto a performance/area

La questione performance/area è nota da tempo, ma si sperava in una vendita in perdita per entrare nel settore delle GPU discrete, del resto portasi dietro x86 ed una avanzata programmabilità costa molto in termini di transistor.
Le idee dietro al progetto non sono male,tranne quella di sostituire eccessivamente le unità fixed-fuction. (magari ci ripensano sulle ROPs)
Sui processi produttivi non sarei così pessimista, dato che intel per i prossimi sei/otto mesi è mezzo nodo avanti. Poi rincorrerà per altrettanti mesi...

Foglia Morta
31-05-2010, 17:36
http://www.anandtech.com/show/3749/intel-mic-22nm-50-cores-larrabee-for-hpc-announced

Last week Intel announced the scrapping of its plans to bring Larrabee to a discrete graphics card. While the announcement was open ended enough to allow for the restart of the discrete GPU program, from what I’ve heard the bulk of Larrabee GPU folks have been transitioned to work on Intel’s integrated graphics as it becomes a major focus of the company.
Larrabee as an architecture is not dead however. Intel made it very clear that a variant of the architecture designed for High Performance Computing (HPC) applications was still on track. It’s called the Intel Many Integrated Core (MIC) architecture and it claims to leverage both Larrabee and Intel’s many core research projects. The first Intel MIC product (codenamed Knights Corner) will be built on Intel’s 22nm process and feature more than 50 cores. I’m guessing it’s too early to tell how many cores will yield once the chip is done and Intel doesn’t want to miss any targets so we get a conservative estimate today.

The 22nm requirement puts the earliest release for Knights Corner at 2011. I’ve also heard that none of the GPU specific features of Knights Corner have been removed. Whether that means we’ll see a revival of the discrete GPU project or not remains to be seen. Intel’s efforts on improving compatibility and testing for its integrated graphics program would definitely come in handy if the company chooses to pursue anything higher end.

Intel is stressing the ease at which customers can port existing x86 code to Knights Corner, an advantage that NVIDIA’s Tesla lacks. The low hanging fruit for Intel’s MIC architecture are those applications that are already highly parallel and are thread constrained on Xeon today. With minor adjustments they should see a good speedup from the move to MIC.

Assuming porting x86 to MIC x86 is as easy as expected, we should see a quicker ramp of MIC adoption in the HPC space than NVIDIA has seen with Tesla thus far.

papafoxtrot
31-05-2010, 19:34
MAH... sono un po' perplesso...
Larrabbee come scheda video non mi piaceva per niente.
Come scheda per computing era interessante, perché permetteva di espandere computer attuali o quasi. Ma era interessante se usciva nel 2010.

Già il ritardo all'inverno 2011-2012 ne limita molto le potenzialità,. perché tra un anno e mezzo a mio avviso le OpenCL e CUDA avranno un peso ben maggiore, ed è facile che un sistema ben carrozzato dotato di schede video ATI/NVIDIA di quel periodo possa fare molto meglio di un chip x86.

Il fatto che non arrivi su scheda, ma come CPU da una parte è positivo, perché ad esempio può essere usato in qualità di CPU in combinazione con schede video. OpenCL ad esempio permettono di ripartire il carico tra CPU e GPU presenti.
Però ciò lo esclude dal mercato delle workstation,... Quello che a me interessa sostanzialmente, e dove ci sarà un massiccio passaggio alle GPU.

Foglia Morta
10-06-2010, 11:19
"Larrabee" in versione engineering sample ( 32 cores a 1.2Ghz, 32nm , 1-2GB GDDR5 , 8MB di cache ). Video e slide: http://translate.google.it/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C749603%2FIntel-Larrabee-Referenz-Grafikkarte-vorgestellt-Update-mit-Youtube-Video%2FGrafikkarte%2FNews%2F&sl=de&tl=en&hl=&ie=UTF-8

il prossimo anno a 22nm con più di 50 core... ma niente scheda grafica.

AnonimoVeneziano
10-06-2010, 23:37
"Larrabee" in versione engineering sample ( 32 cores a 1.2Ghz, 32nm , 1-2GB GDDR5 , 8MB di cache ). Video e slide: http://translate.google.it/translate?u=http%3A%2F%2Fwww.pcgameshardware.de%2Faid%2C749603%2FIntel-Larrabee-Referenz-Grafikkarte-vorgestellt-Update-mit-Youtube-Video%2FGrafikkarte%2FNews%2F&sl=de&tl=en&hl=&ie=UTF-8

il prossimo anno a 22nm con più di 50 core... ma niente scheda grafica.

Ammazza, che brutta la scheda ... ma di cosa è fatta, di moquette?

appleroof
11-06-2010, 18:18
Ammazza, che brutta la scheda ... ma di cosa è fatta, di moquette?

:asd:

Foglia Morta
17-09-2010, 08:24
Intel: Larrabee was 'impractical'
Failed graphics architecture just too complex


Read more: http://www.techradar.com/news/computing-components/graphics-cards/intel-larrabee-was-impractical--716960#ixzz0zlkLmXM5

I motivi sono proprio quelli che ci si poteva aspettare...

When asked why Piazza thought it had failed though he was surprisingly candid. "I just think it's impractical to try to do all the functions in software in view of all the software complexity," he explained. "And we ran into a performance per watt issue trying to do these things."

"Naturally a rasterizer wants to be fixed function." Piazza went on. "There is no reason to have the programming; it takes so little area for what it does relative to trying to code things like that."

It turned out that it was a problem of trying to balance out what they were doing, trying to find "what's the right level of programmability and what's the right level of fixed function."

Unfortunately with the Larrabee project Intel tried to make everything programmable.

Varie slide e il package di Knights Ferry: http://www.computerbase.de/news/hardware/grafikkarten/2010/september/intel-knights-ferry-inklusive-chip-untersucht/

mircocatta
15-11-2010, 09:43
http://www.chiphell.com/forum-viewthread-tid-138339-from-portal.html




:confused: :confused:

Alekos Panagulis
19-11-2010, 19:25
http://www.chiphell.com/forum-viewthread-tid-138339-from-portal.html




:confused: :confused:

Superfake IMHO.

sbudellaman
20-11-2010, 13:30
Superfake IMHO.

ma quale superfake... http://www.businessmagazine.it/news/il-gpu-computing-di-intel-si-chiama-knights-ferry_34471.html
in ogni caso sarà dedicata al gpu computing, quindi niente a che fare col gaming

Foglia Morta
23-11-2010, 06:33
Engineering sample:

http://www.pctunerup.com/up/results/_201011/th_20101123073053_Larrabee.jpg (http://www.pctunerup.com/up/image.php?src=_201011/20101123073053_Larrabee.jpg)

xage
16-07-2011, 03:58
Scusate ragazzi ma perche non si parla più di larrabe? da 1 anno quasi non viene più citata imho.... notizie???

Foglia Morta
16-07-2011, 12:30
Scusate ragazzi ma perche non si parla più di larrabe? da 1 anno quasi non viene più citata imho.... notizie???

Dovrebbe uscire nel 2012 la versione a 22nm , knight ferry o knight corner... ora non ricordo , comunque 50 e più cores. Ma dovrebbe essere un processore votato al settore HPC , per utilizzo consumer si legge ben poco , imo ci arriveranno a fare un' architettura adatta allo scopo ma è ancora lontana.