Intel Larrabee: in arrivo per metà 2010

Intel Larrabee: in arrivo per metà 2010

E' prevista per la prima metà del prossimo anno la disponibilità delle prime soluzioni GPU Intel della famiglia Larrabee, dotate di pieno supporto al codice x86

di pubblicata il , alle 09:21 nel canale Schede Video
Intel
 

In concomitanza con la conferenza stampa di inaugurazione del proprio nuovo centro di ricerca per il visual computing, del quale abbiamo dato segnalazione in questa notizia, Intel ha confermato i propri piani di lancio delle prime soluzioni della famiglia Larrabee.

Rispetto alle iniziali previsioni il debutto delle soluzioni Larrabee è stato posticipato alla prima metà del 2010, contro una data iniziale di fine 2009. Joseph Schultz di Intel ha specificato come sarà una grossa sfida per l'azienda americana quella di posizionarsi sul mercato quale alternativa alle proposte GPU sviluppate da NVIDIA e ATI.

Queste ultime due aziende hanno in programma il debutto di nuove generazioni di GPU proprio per la fine del 2009, con soluzioni sviluppate per le nuove API Microsoft DirectX 11 senza tralasciare varie ottimizzazioni interne specifiche per gli ambiti di elaborazio ne del GPU Computing.

L'architettura delle soluzioni Intel Larrabee vedrà l'utilizzo di un numero variabile di core, a seconda dei modelli, basati sulla seconda generazione di processori Intel Pentium, quelli della famiglia P54C, con frequenze di clock indicativamente attorno ai 2 GHz e varie otimizzazioni interne specifiche per il GPU Computing.

La tecnologia produttiva utilizzata sarà presumibilmente quella a 45 nanometri almeno inizialmente, anche se il debutto nella prima metà del 2010 potrebbe permettere di utilizzare tecnica a 32 nanometri. Le soluzioni Larrabee integreranno supporto ad applicazioni x86 in modo nativo, principale elemento di differenziazione nell'approccio Intel rispetto a quelli seguiti da ATI e NVIDIA.

Fonte: c't Magazine.

42 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Pat7715 Maggio 2009, 09:27 #1
Molto interessante questo approccio fin dall'inizio di questo progetto, che seguo con interesse, anche èerchè grazie a questa scalabilità potrebbero rendere molto più semplice in ambito gaming le cose, pensando anche ai note.
Mparlav15 Maggio 2009, 09:45 #2
Meglio così, ritardano ancora.
Per quel periodo facile che Amd e Nvidia siano pronti al die shrink a 28nm delle loro RV870 e GT300
atomo3715 Maggio 2009, 09:51 #3
sarebbe interessante se amd/ati, che sulla carta dovrebbe essere già l'unica ad avere tanta tecnologia sia per le cpu che per le gpu, si desse una svegliata
jpjcssource15 Maggio 2009, 09:55 #4
Ho l'impressione che Intel tema di non poter mettere abbastanza core P54C producendoli a 45 nanometri per poter contrastare le prestazioni delle prossime soluzioni Nvidia e AMD così rinvia Larrabee per poter implementare quelli a 32 fin da subito in modo da avere più potenza.
davyjones15 Maggio 2009, 10:04 #5
Amd/Ati segue la sua strada, non credo si metterà ad inseguire Intel nel progetto Larrabee, soprattutto in questi tempi di vacche magre...

@jpjssource: anch'io ho spresso un commento simile in un altro sito...
Mparlav15 Maggio 2009, 10:05 #6
Secondo me potrebbe trovarsi con questo timore anche a metà 2010.
Perchè può solo fare predizioni su quale sarà la potenza di calcolo espressa da RV870 e GT300, ma peggio, delle rispettive fasce medie da 100-150$, magari già die shrink della metà del 2010 (o delle Firepro e Quadro da 500$, a seconda dell'impiego).
Intel spingerà di brutto sulla facilità di programmazione e sui suoi compilatori, e questo innegabilmente sarà un punto di forza.
kralin15 Maggio 2009, 10:07 #7
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...
SSMark15 Maggio 2009, 10:08 #8
escono sempre schede video ma processori veramente potenti??? con cosa si useranno le nuove vga??? ormai l'overclock spinto è d'obbligo per uscire dal cpulimited...
jpjcssource15 Maggio 2009, 10:09 #9
Originariamente inviato da: davyjones
Amd/Ati segue la sua strada, non credo si metterà ad inseguire Intel nel progetto Larrabee, soprattutto in questi tempi di vacche magre...

@jpjssource: anch'io ho spresso un commento simile in un altro sito...


Amd ha già sborsato una marea di soldi per acquisire le tecnologie Ati per poter entrare nel mercato delle soluzioni grafiche discrete, Intel, invece di fare la stessa cosa acquistando Nvidia, ha puntato sul sviluppare in casa con le proprie tecnologie una soluzione tutta sua.
Magari la strada intrapresa da Intel sarà più economica di quella AMD grazie anche al riciclo di tecnologie vecchie aggiornate, ma penso che la seconda sia in netto vantaggio dal punto di vista prestazionale.

Poi vedremo test alla mano, ma la mia impressione è quella.
jpjcssource15 Maggio 2009, 10:13 #10
Originariamente inviato da: kralin
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...


Si, per questo ambito trovo Larrabbee piuttosto interessante.

Riguardo all'uso come chip grafico invece bisogna dire che tale soluzione ha un layer software che gli permette di essere compatibile con le Dx e le Open GL quanto qualsiasi GPU Nvidia o AMD.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^