PDA

View Full Version : Intel Larrabee: in arrivo per metà 2010


Redazione di Hardware Upg
15-05-2009, 08:21
Link alla notizia: http://www.hwupgrade.it/news/skvideo/intel-larrabee-in-arrivo-per-meta-2010_28990.html

E' prevista per la prima metà del prossimo anno la disponibilità delle prime soluzioni GPU Intel della famiglia Larrabee, dotate di pieno supporto al codice x86

Click sul link per visualizzare la notizia.

Pat77
15-05-2009, 08:27
Molto interessante questo approccio fin dall'inizio di questo progetto, che seguo con interesse, anche èerchè grazie a questa scalabilità potrebbero rendere molto più semplice in ambito gaming le cose, pensando anche ai note.

Mparlav
15-05-2009, 08:45
Meglio così, ritardano ancora.
Per quel periodo facile che Amd e Nvidia siano pronti al die shrink a 28nm delle loro RV870 e GT300

atomo37
15-05-2009, 08:51
sarebbe interessante se amd/ati, che sulla carta dovrebbe essere già l'unica ad avere tanta tecnologia sia per le cpu che per le gpu, si desse una svegliata ;)

jpjcssource
15-05-2009, 08:55
Ho l'impressione che Intel tema di non poter mettere abbastanza core P54C producendoli a 45 nanometri per poter contrastare le prestazioni delle prossime soluzioni Nvidia e AMD così rinvia Larrabee per poter implementare quelli a 32 fin da subito in modo da avere più potenza.

davyjones
15-05-2009, 09:04
Amd/Ati segue la sua strada, non credo si metterà ad inseguire Intel nel progetto Larrabee, soprattutto in questi tempi di vacche magre...

@jpjssource: anch'io ho spresso un commento simile in un altro sito...

Mparlav
15-05-2009, 09:05
Secondo me potrebbe trovarsi con questo timore anche a metà 2010.
Perchè può solo fare predizioni su quale sarà la potenza di calcolo espressa da RV870 e GT300, ma peggio, delle rispettive fasce medie da 100-150$, magari già die shrink della metà del 2010 (o delle Firepro e Quadro da 500$, a seconda dell'impiego).
Intel spingerà di brutto sulla facilità di programmazione e sui suoi compilatori, e questo innegabilmente sarà un punto di forza.

kralin
15-05-2009, 09:07
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...

SSMark
15-05-2009, 09:08
escono sempre schede video ma processori veramente potenti??? con cosa si useranno le nuove vga??? ormai l'overclock spinto è d'obbligo per uscire dal cpulimited...

jpjcssource
15-05-2009, 09:09
Amd/Ati segue la sua strada, non credo si metterà ad inseguire Intel nel progetto Larrabee, soprattutto in questi tempi di vacche magre...

@jpjssource: anch'io ho spresso un commento simile in un altro sito...

Amd ha già sborsato una marea di soldi per acquisire le tecnologie Ati per poter entrare nel mercato delle soluzioni grafiche discrete, Intel, invece di fare la stessa cosa acquistando Nvidia, ha puntato sul sviluppare in casa con le proprie tecnologie una soluzione tutta sua.
Magari la strada intrapresa da Intel sarà più economica di quella AMD grazie anche al riciclo di tecnologie vecchie aggiornate, ma penso che la seconda sia in netto vantaggio dal punto di vista prestazionale.

Poi vedremo test alla mano, ma la mia impressione è quella.

jpjcssource
15-05-2009, 09:13
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...

Si, per questo ambito trovo Larrabbee piuttosto interessante.

Riguardo all'uso come chip grafico invece bisogna dire che tale soluzione ha un layer software che gli permette di essere compatibile con le Dx e le Open GL quanto qualsiasi GPU Nvidia o AMD.

Jackari
15-05-2009, 09:14
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...

mi pare che larrabee venga posto dallo stesso produttore quale alternative alle gpu. probabilmente il costo sarà basso poichè destinato a tale mass market. diversamente se il mercato di destinazione non sarà quello la vedo dura che il costo sia "infimo".

Mparlav
15-05-2009, 09:16
Larrabee è un ibrido tra cpu e gpu.

Così come è dotato di core P54C, è dotato delle texture units classiche delle gpu.
Quindi nasce più per il gp computing, vero, ma avrà il supporto Directx11/Opengl, a quanto si dice.
Questi sono elementi da "gpu".

cignox1
15-05-2009, 09:31
Non ho proprio idea di come intel speri di competere con la prossima generazione di GPU, mantenendo contemporaneamente consumi e costi paragonabili.
Dal momento, pero', che a tutt'oggi ci sono effetti nei giochi che non sono esattamente 'a buon mercato' sulle GPU, ma potrebbero essere ottimizzate per architetture piu' flessibili (come x86), magari si potrebbero ottenere risultati anloghi anche con una minore potenza.

E poi c'e' sempre il raytracing, vero motivo per cui aspetto LRB :-)

Pat77
15-05-2009, 09:31
La cosa interessante è che pare possa adeguarsi a nuovi modelli di dx senza rifare l'hw, via software.

riuzasan
15-05-2009, 09:32
Onestamente in questo campo contano i driver.
I driver forniti da INtel per tutte le sue GPU integrate fanno letteralmente pena.
In questo settore fondamentale del mondo GPU, Ati ed Nvidia hanno un vantaggio enorme.
Poi onestamente, se devo ritrovarmi nel 90% dei PC in vendita delle schede video Intel solo perchè Intel vende ai produttori tutto in bundle con sconti e/o mazzette ... grazie, ma passo.

10 anni di concorrenza REALE tra Nvidia e ATI hanno portato a GPU potenti ed economiche, che sono limitate proprio dall'architettura X86, dove l'evoluzione ha avuto un minimo di spinta solo grazie alla presenza marginale di AMD in questo settore.
Tutti applaudono all'architettura I7, a come è "veloce" ... peccato che questo veloce sia estremamente opinabile, se comparato alle percentuali di market share possedute da Intel: e tutti gli scenari in cui le moderne GPU sono CPU limited sono li a mostrarlo a tutti.

davyjones
15-05-2009, 09:35
Non ho proprio idea di come intel speri di competere con la prossima generazione di GPU, mantenendo contemporaneamente consumi e costi paragonabili.
Dal momento, pero', che a tutt'oggi ci sono effetti nei giochi che non sono esattamente 'a buon mercato' sulle GPU, ma potrebbero essere ottimizzate per architetture piu' flessibili (come x86), magari si potrebbero ottenere risultati anloghi anche con una minore potenza.

E poi c'e' sempre il raytracing, vero motivo per cui aspetto LRB :-)

Scusate l'ignoranza, ma al dilà del forte interesse di Intel nei confronti del ray tracing, che cos'ha l'architettura Larrabee che gli conferisce questa spiccata idoneità al ray tracing?

g.luca86x
15-05-2009, 09:37
basterà smerciare qualche altra mazzetta e allora non ci saranno problemi per la diffusione dei nuovi chip! Posticipata l'uscita causa paura di un'altra batosta in USA? :asd:

Pikazul
15-05-2009, 09:41
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...

Perchè larrabee è una GPU, non una CPU multicore.
Certo, è una gpu costruita con una filosofia completamente diversa, basata sul rendering software tramite istruzioni x86, invece che sull'implementazione via hardware, è pensata per essere accessibile via API directx e openGL esattamente come le GPU, ed il suo mercato è quello delle GPU, quindi principalmente gaming. La possibilità di eseguire codice x86 è un benefit, non lo scopo principale.

Intel non è scema, non le conviene mettere in campo un prodotto che fa da CPU meglio delle sue CPU, che ha tutta l'intenzione di continuare a vendere, e di certo non sta spendendo milioni o miliardi in ricerca per un prodotto destinato SOLO a quello 0.1% di persone che fanno abitualmente simulazioni di fluidodinamica, conversione di video, o altre attività pesanti.

GByTe87
15-05-2009, 09:43
Onestamente in questo campo contano i driver.
I driver forniti da INtel per tutte le sue GPU integrate fanno letteralmente pena.
In questo settore fondamentale del mondo GPU, Ati ed Nvidia hanno un vantaggio enorme.
Poi onestamente, se devo ritrovarmi nel 90% dei PC in vendita delle schede video Intel solo perchè Intel vende ai produttori tutto in bundle con sconti e/o mazzette ... grazie, ma passo.

10 anni di concorrenza REALE tra Nvidia e ATI hanno portato a GPU potenti ed economiche, che sono limitate proprio dall'architettura X86, dove l'evoluzione ha avuto un minimo di spinta solo grazie alla presenza marginale di AMD in questo settore.
Tutti applaudono all'architettura I7, a come è "veloce" ... peccato che questo veloce sia estremamente opinabile, se comparato alle percentuali di market share possedute da Intel: e tutti gli scenari in cui le moderne GPU sono CPU limited sono li a mostrarlo a tutti.

Concorrenza reale? Come il cartello nVidia/Ati per le gpu di fascia alta? :asd:

SuperTux
15-05-2009, 09:47
E' fattibile mettere una batteria (magari 100) di processori cortexA8 (consumo 0,3W) su una scheda pci-ex e fargli fare calcoli ti tipo grafico o comunque similari al larrabee?

Il consumo sarebbe sui 30W totali (di solo "core"), quindi direi ottimo, ma a livello teorico sarebbe fattibile?

Tralasciando il fattore costo della scheda teorica in questione.


Che ne pensate di questa fanta-tecnica?

:D

Mparlav
15-05-2009, 09:54
10 anni di concorrenza REALE tra Nvidia e ATI hanno portato a GPU potenti ed economiche, che sono limitate proprio dall'architettura X86, dove l'evoluzione ha avuto un minimo di spinta solo grazie alla presenza marginale di AMD in questo settore.


OT:
Ati/Amd ed Nvidia sono state condannate entrambe (ed hanno patteggiato la sanzione) per aver fissato prezzi delle loro schede di fascia alta, negli Usa, dal 2002 al 2007.
Quei 10 anni di concorrenza reale di cui parli, in realtà è avvenuta solo nell'ultimo anno e mezzo

FINE OT

Pat77
15-05-2009, 10:04
OT: a me la storia di Intel sembra tanto assurda, io ho una ditta e se uno prende xy prodotti faccio ovviamente gli sconti
CHIUSO OT

Qualcuno vuole commentare il fatto che non ci sia bisogno di rifare la scheda la cambio di DX?

cignox1
15-05-2009, 10:07
La cosa interessante è che pare possa adeguarsi a nuovi modelli di dx senza rifare l'hw, via software.

Questo e' sicuro (a meno che non cambino le specifiche riguardo le texture, in quel caso non saprei). Per tutto il resto, ovunque sia mossibile un implementazione software (che e' sempre possibile), allora LRB puo' implementare le nuove carateristiche. Compreso un nuovo Shader Model.

calabar
15-05-2009, 10:11
Però un'implementazione software non ha mai le prestazioni di una hardware.
Bisogna quindi in questo caso valutarne pro e contro.

cignox1
15-05-2009, 10:12
Scusate l'ignoranza, ma al dilà del forte interesse di Intel nei confronti del ray tracing, che cos'ha l'architettura Larrabee che gli conferisce questa spiccata idoneità al ray tracing?


LRB non e' particolarmente adatta al raytrcing, ma la sua flessibilita' e la maggiore tolleranza nei confronti di utilizzi di memoria 'random' al rendono di sicuro piu' adatta di una GPU (che richiede un'alta coherence nelle operazioni) e l'alto numero di core consente di sfruttare il parallelismo naturale del RT meglio di una comune CPU.
Inoltre, LRB possiede istruzioini particolari adatte alla CG in generale e, quindi, anche all'RT (come un SSE pompato, se vogliamo).
Diciamo che forse non e' la manna del raytracing, come invece 'dovrebbe' essere la soluzione Caustic, ma se le caratteristiche dichiarate sono quelle reali, potremmo aspettarci una notevole potenza in RT...

Pat77
15-05-2009, 10:14
Comunque dicevano che con 32 core se non ricordo male (o 48) facevano 60 fps a Gow a 1600x1200, non so come si colloca in assoluto questo dato.

SuperTux
15-05-2009, 10:17
OT: a me la storia di Intel sembra tanto assurda, io ho una ditta e se uno prende xy prodotti faccio ovviamente gli sconti
CHIUSO OT

Qualcuno vuole commentare il fatto che non ci sia bisogno di rifare la scheda la cambio di DX?

Ok, parliamone. Pensiamo all'ultimo cambio di dx (da 9 a 10).

La x1950xtx andava bene in dx9. Le prime schede dx 10 erano le 8800 che asfaltavano letteralmente le x1950xtx (ma è uguale anche se prendi le corrispettive nvidia) in dx9. Se invece ci vuoi giocare in dx 10 le prime 8800 andavano discretamente, ma non erano fenomenali come in dx9.

Se prendi oggi una ati o nvidia di fascia medio-alta in dx 10 ci giochi bene.

Questo per dire che è un bene che puoi passare alle dx nuove senza cambio di hw, ma (probabilmente) non hai la potenza necessaria per sfruttarle.

Mparlav
15-05-2009, 10:18
OT: a me la storia di Intel sembra tanto assurda, io ho una ditta e se uno prende xy prodotti faccio ovviamente gli sconti
CHIUSO OT

Qualcuno vuole commentare il fatto che non ci sia bisogno di rifare la scheda la cambio di DX?

OT: lecito fornire sconti e trattamento di favore per quantità, e questo non è stato contestato dall'antitrust EU, leggi articolo di ieri di Hwupgrade.
Illecito stipulare accordi per NON far vendere i prodotti dell'unico avversario sul mercato, tra l'altro in quota ampiamente minoritaria, o per ritardarne di mesi l'entrata in commercio.
Questo è abuso di posizione dominante, fino a prova contraria.

Chiuso OT.

Larrabee sulla carta è molto flessibile nella programmazione, quindi molto più svincolato dalle Api rispetto ai prodotti Ati ed Nvidia.
La chiave restano sempre le prestazioni.

cignox1
15-05-2009, 10:23
Ancora due parole: Intel ha detto che LRB dovrebbe essere tanto flessibile da poterci far girare quasi qualsiasi applicazione, limitata solo dal fatto che la scheda non puo' sostituirsi alla CPU a basso livello (accesso al bios, IO e cose cosi'). Ma per quanto riguarda le istruzioni e gli algoritmi esprimibili, sono assolutamente equivalenti, quindi qualsiasi algoritmo grafico ti viene in mente lo puoi implementare.

Poi chiaro, bisogna vedere le prestazioni, ma rispetto alle GPU e' un altro modo di pensare, visto che su LRB puoi addirittura riutilizzare il codice stesso che gia' hai... e che sicuramente esiste in giro MOOLTO piu' materiale di riferimento e codice open sull'architettura x86 che GPU...

Da un'altro punto di vista, LRB pero' limita le possibili innovazioni: le GPU hanno incrementato la propria potenza molto, molto piu' rapidamente di quanto hanno fatto le GPU, anche grazie al fatto che si potevano modificare le architetture, perche' l'accesso avveniva tramite driver.
Con LRB mi sa che vedremo i solti passetti in avanti: piu' core, processo produttivo piu' efficente, qualche istruzione in piu' di tanto in tanto, frequenze aumentate. Niente di rivoluzionario, proprio come nelle CPU.

Lotharius
15-05-2009, 10:32
Secondo me il punto di forza reale di LRB sta più nella scalabilità e nella flessibilità d'uso, che nella pura potenza 3D. Potrebbe avere un buon successo se fosse possibile sfruttare la potenza di calcolo in molti più ambiti rispetto a quelli di attuale appannaggio delle GPU e, specialmente, potrebbe avere l'ottima caratteristica del rrisparmio energetico nei periodi di idle, tramite il semplice spegnimento della maggior parte dei core che lo compongono, mantenendo operativi solo quelli strettamente necessari all'uso agevole dell'ambiente di lavoro.

Per quanto riguarda i videogiochi, ricordo che non dipende tutto dai driver o dal supporto alle DirectX. Purtroppo negli ultimi tempi si assiste a un degrado notevole della qualità dei videogiochi dovuto principalmente a porting scadenti dal mondo delle consolle; e in un panorama del genere non c'è VGA o driver che tengano. E' anche per questo che è sempre più importante dare un senso alla potenza di calcolo delle moderne VGA al di fuori dell'ambito videoludico...

Xile
15-05-2009, 11:45
Sperando che siano subito capaci di sfruttare bene quello che hanno.

Pat77
15-05-2009, 11:54
Sì è vero che la potenza computazionale conta, ma io penso che poter programmare nativamente l'ultima api senza vincoli di compatibilità sia una gran cosa.
Nel senso, guardiamo dx10, un passaggio graduale molto molto lento.
Fosse un mercato di prodotti stile Larrabee, dx10 punto e basta in un attimo.

axel619
15-05-2009, 13:56
E' una questione di complessità.
Le cpu multicore sono nate perchè ci si è resi conto di non poter continuare a 'ingrossare' i chip all'infinito, perchè i costi di sviluppo aumentavano esponenzialmente e i problemi tecnico/elettrici anche.
Intel sta applicando il principio anche alla Gpu, ma con un approccio diverso perchè arrivare al livello di Nvidia/Amd costerebbe troppo. Fine della storia.
Intel l'ha fatto con quello che aveva, il Pentium 1, quello ancora senza mmx. Credo sia l'ultimo processore x86 senza set di istruzioni aggiuntive. Adesso si potrebbe dire un chip 'semplice' e poco complesso da produrre.
In prospettiva potranno accoppiarne sempre di più e credo che sulla distanza possano emergere con una soluzione prestazionale di riferimento. Nell'immediato potrebbero però vendere schede grafiche potenti ad una cifra molto bassa, che poi pare essere il mercato che fa fare i soldi, visto l'elevato volume di vendite.
Tuttavia presto o tardi Nvidia/Amd dovranno fare lo stesso, i limiti tecnologici esistono anche per loro. La questione non è se lo faranno, ma quando lo faranno.
Quel giorno si capirà se avrà avuto più senso accoppiare chip grafici insieme o chip x86.
Prima di allora lodi ad Intel per aver dato uno scossone al mercato, sperando che non lo corrompano per vendere solo le loro schede grafiche! ;)

riuzasan
15-05-2009, 15:16
E' inutile continuare con questa storia dell'accordo tra Nvidia e ATi nel settore di fascia alta: accordo tra l'altro stipulato per non andare a perderci economicamente nello sviluppo delle GPU stesse.

La realtà di fatto è che oggi la concorrenza tra Nvidia ed ATi ha portato a schede, anche di fascia media, che sono castrate dalle CPU.
Qualcosa di inconcepibile se si pensa alla differenza di fatturato tra Intel ed Nvidia, ad esempio.

davyjones
15-05-2009, 15:40
Inconcepibile no, la cpu è elemento imprescindibile di un computer e una cpu scattante può far comodo a chiunque, mentre una vga dedicata di fascia media media-alta non sempre serve...per cui c'è gente che si compra una cpu da 80-120 euro (che gli garantisce buone prestazioni in molti degli ambiti più comuni) ma poi si prende una vga da 25-30 euro se non addirittura una integrata perché dei giochi non gliene importa nulla...

davyjones
15-05-2009, 16:16
http://techreport.com/discussions.x/16920

Segnale questa pubblicazione di Techreport, dove si specula sul famoso scatto di Larrabee....

sdjhgafkqwihaskldds
16-05-2009, 09:11
-

MenageZero
16-05-2009, 12:42
ma perchè mai comparate larrabee alle gpu?
sono due cose completamente diverse, una è x86 le altre no.
forse larrabee potrà fare ANCHE da gpu, ma potrebbe dare una spinta decisiva al parallel computing massivo, visto che sarebbe giù utilizzabile, senza dover passare tramite cuda, opencl et similia...
in ambito di calcolo scientifico sarebbe manna dal cielo a costo infimo, mentre con del sofware adatto, metti una mezza schedina di quelle, un atom e vai a mille su qualunque pc...
che poi si mettano ad usare l'architettura x86 anche per la grafica dei giochi, è possibile, ma la vedo dura...

direi che uno dei motivi principali sia questo: ;)
"Intel ha specificato come sarà una grossa sfida per l'azienda americana quella di posizionarsi sul mercato quale alternativa alle proposte GPU sviluppate da NVIDIA e ATI."


"Le soluzioni Larrabee integreranno supporto ad applicazioni x86 in modo nativo, principale elemento di differenziazione nell'approccio Intel rispetto a quelli seguiti da ATI e NVIDIA."

che i "mini core" di larrabee abbiano isa x86 è pacifico da un pezzo ormai, ma considerazioni come quella qui sopra che significano in concreto ad alto livello ? (nel senso di livello di astrazione)
il sistema operativo "vedrà" una cpu in più (in smp ?) oltre ai core della cpu tradizionale se presente larrabee ? addirittura una per ogni "mini core" ? o solo che il codice eseguibile da passare alla gpu sarà codice macchina x86 ? (quest'ultima sarebbe un'affermazione alquanto superflua e scontata però, quindi credo si intedesse altro)


ps:
certo che larrabee si sta facendo attendere ... di solito, andando a a memoria, le nuove arch. che "fanno così" poi fanno una brutta fine ... speriamo bene :D (ovvero, una eventuale alternativa valida in più male non dovrebnbe fare)

pps:
imho "urge" qualche delucidazione/opinione tecnica di rango ... yossarian, se passi di qui mi raccomando pigia sulla tastiera ... :sofico:

leoneazzurro
16-05-2009, 12:48
Senza contare che Larrabee avrà hardware dedicato tipico delle GPU, in particolare delle TMU (Texture Management Units) mentre a quento pare la funzione delle ROPs sarà svolta via software. Quindi è x86, ma è anche una GPU.

MenageZero
16-05-2009, 13:06
OT: a me la storia di Intel sembra tanto assurda, io ho una ditta e se uno prende xy prodotti faccio ovviamente gli sconti
CHIUSO OT

Qualcuno vuole commentare il fatto che non ci sia bisogno di rifare la scheda la cambio di DX?

in teoria, anche per una tnt puoi rifare un driver che esponga le api richieste, dalle specifiche per esempio dx10 (o 9 o 8 ... nel caso della tnt il concetto è lo stesso :D ) ... poi però magari il risultato finale va a 0.1 fps ...

ovvero, via sw si può fare di tutto e non solo con larrabee ... resta da vedere nel momento in cui faccio l'agg. via drv alle spec. dx n+1, se quelle n+1 rispetto alle n comportano un maggiore carico computazionale, come diventa la situazione prestazionale a parità di qualità in output o viceversa, qualità a pari prestazione ...

... magari la "versatilità" della isa x86 rispetto all'arch. delle altre gpu, potrebbe facilitare o addirittura ridurre gli impatti negativi di simili operazioni, staremo a vedere, poi sinceramente non ho info specifiche sull'argomento e se ho detto qualche corbelleria chiedo scusa :p

tieni sempre presente però che se passi dal fare una cosa A ad una B dove
la complessità computazionale di B è significativamente maggiore di quella di A, i miracoli non li fa nessuno, nemmeno intel ... :sofico:

MenageZero
16-05-2009, 13:11
Senza contare che Larrabee avrà hardware dedicato tipico delle GPU, in particolare delle TMU (Texture Management Units) mentre a quento pare la funzione delle ROPs sarà svolta via software. Quindi è x86, ma è anche una GPU.

ma questo non rischia di "ammazzarne" le prestazioni rispetto ai concorrenti "rossi" e "verdi" del momento ? :wtf:

non c'erano per esempio all'epoca della "delusione r600" questioni importanti che riguardavano le rops, tra le altre ? (magari ricordo malissimo eh :D)

io credevo che ai "mini core" x86 avrebbero lasciato "nulla più" che i compiti ad oggi svolti dai vari array di sp in ati ed nv ...

LMCH
17-05-2009, 00:04
Verso fine mese Intel dovrebbe rendere disponibile il tool Parallel Studio che secondo le loro intenzioni dovrebbe semplificare lo sviluppo di applicazioni che sfruttino bene le architetture multicore (dai due core in su).

Quel tool e' fondamentale per il successo o meno di Larrabee.

Il motivo e' che attualmente anche con codice ottimizzato a mano o quasi, l'efficienza decresce con l'aumento del numero di core per socket sino a livellarsi (principalmente a causa del collo di bottiglia legato agli accessi alla memoria esterna).

Anche se Larrabee debutta dai 24 core in su (core singolarmente paragonabili ad un core Atom, non ad un core i7), in assenza di un tool "semplice" e che funzioni davvero, c'e' il rischio che a causa del "collo di bottiglia" venga sorpassato in prestazioni dalle cpu "vecchie" con meno core (ma singolarmente piu "potenti").

Se tra qualche mese quel tool mostrera' che e' in grado di far sfruttare decisamente meglio i multicore gia in commercio, significhera' che per Larrabee c'e' speranza, ma se invece cominciassero a circolare commenti non proprio entusiasti ...