PDA

View Full Version : Intel Larrabee: il die in immagine


Redazione di Hardware Upg
14-04-2009, 10:30
Link alla notizia: http://www.hwupgrade.it/news/skvideo/intel-larrabee-il-die-in-immagine_28666.html

Dall'IDF di Pechino emergono immagini di un wafer contenente GPU Intel Larrabee: dimensioni elevate ma tecnologia produttiva ancora da esplorare

Click sul link per visualizzare la notizia.

Darkon
14-04-2009, 10:45
Si ma a parte il numero di transistor bisogna vedere quanto sarà efficiente come GPU perchè tanto se alla fine come GPU rende in quantità inferiore a una VGA media giusto giusto nei portatili li piazzi o nei sistemi con VGA integrata che per quanto vendano boh... ce li riprendono i costi?

Non dimentichiamoci che come detto in articolo questa CPU-GPU avrà costi altini almeno per ora e chi compra un portatile difficilmente sarà disposto a pagare cifre esagerate.

gianni1879
14-04-2009, 10:50
qualcosa si muove :)

cignox1
14-04-2009, 11:06
Spero solo di vedere al piu' presto un prototipo funzionante per valutare effettivamente le prestazioni ottenibili in ambito grafica...

Xeus32
14-04-2009, 11:20
Si ma a parte il numero di transistor bisogna vedere quanto sarà efficiente come GPU perchè tanto se alla fine come GPU rende in quantità inferiore a una VGA media giusto giusto nei portatili li piazzi o nei sistemi con VGA integrata che per quanto vendano boh... ce li riprendono i costi?

Non dimentichiamoci che come detto in articolo questa CPU-GPU avrà costi altini almeno per ora e chi compra un portatile difficilmente sarà disposto a pagare cifre esagerate.
Stai errando. Sto chip non è adatto a portatili ma bensì a una VGA discreta! Anche se IMHO è più probabile che venga applicata in ambiti differenti dalla grafica.

homero
14-04-2009, 11:24
resta il fatto che quel wafer potrebbe essere qualunque cosa......
...pubblicità alla grande....
tanto ad occhio nudo come si vedono i transistor?

Mercuri0
14-04-2009, 11:43
Yep, altro che portatili!
Ma magari sono prototipi a 65nm.

Nonstante la padella difficilmente competeranno con le GPU ATI & nVidia, ma se hanno prestazioni appena decenti lntel un modo per venderli lo trova comunque.

II ARROWS
14-04-2009, 11:44
Ma perchè continuate a parlare di GPU?

Larrabee è comunque una CPU.

Mercuri0
14-04-2009, 11:45
Larrabee è comunque una CPU.
Nah, in ambito consumer o accelera i giochi o non serve a niente.
Cioé, come "CPU" le prende da un Atom.

(tra l'altro non sono affatto sicuro possa essere usato come "Central Processing Unit" di un computer. Cioé, anche se i core che usa sono da "CPU", non lo si può chiamare CPU)

Darkon
14-04-2009, 12:13
Scusate ma sinceramente se non sono nemmeno adatti all'uso portatile a che servono!?

Ma quale player opta per tale "unità" che francamente non vedo come potrà mai competere con una VGA dedicata!?!?

Che poi si torna lì.... se diventa più economico che la VGA integrata ancora ancora lo piazzi in sistemi per uffici allora ma altrimenti chi se lo prende!?

Anche il bimbetto se non è proprio uno sprovveduto non si fa abbindolare e capisce che una nvidia/ati è meglio.

Boh.... non vedo uno sbocco vero e proprio per questa tecnologia allo stato attuale delle cose.

yossarian
14-04-2009, 12:24
Yep, altro che portatili!
Ma magari sono prototipi a 65nm.

Nonstante la padella difficilmente competeranno con le GPU ATI & nVidia, ma se hanno prestazioni appena decenti lntel un modo per venderli lo trova comunque.

non è da escludere: non tornano i conti tra numero di transistor e die size

XMieleX
14-04-2009, 12:57
prego astenersi dal commentare tutte quelle persone che credono che le schede video servano solo per giocare...
ed in generale:
fate attenzione: allo stato attuale questo chip è troppo grosso per essere integrato sulla scheda madre,
sarà inizialmente solo su scheda dedicata.
nell'ultimo periodo le video integrate intel sono cresciute parecchio, io non darei per scontato che sia un flop questo salto di livello, potrebbero essere molto competitive sin da subito.

Foglia Morta
14-04-2009, 13:24
non è da escludere: non tornano i conti tra numero di transistor e die size

Perchè ? Non ho mai letto dati relativi alla quantità di transistors presenti in Larrabee. Ma anche se ci fossero questi dati comunque la densità può variare, no ? Ad esempio a parità di processo produttivo ATi mette più transistors di nVidia in ogni mm2 , e mi pare che le cpu di Intel e AMD abbiano ancora meno transistors per mm2 , quindi magari la struttura X86 penalizza Larrabee in densità.

yossarian
14-04-2009, 13:54
Perchè ? Non ho mai letto dati relativi alla quantità di transistors presenti in Larrabee. Ma anche se ci fossero questi dati comunque la densità può variare, no ? Ad esempio a parità di processo produttivo ATi mette più transistors di nVidia in ogni mm2 , e mi pare che le cpu di Intel e AMD abbiano ancora meno transistors per mm2 , quindi magari la struttura X86 penalizza Larrabee in densità.

vero, però atteniamoci alle info della news:
larrabee: 1,7 mld di transistor, die size tra i 600 e i 700 mm^2 a 45 nm
GT200: 1,4 mld di tramsistor, die size di circa 470 mm^ a 55 nm
RV770: 956 mln di transistor, die size 256 mm^2 a 55 nm

ammetterai che, anche volendo considerare variazioni della densità, c'è troppa differenza tra quella delle gpu ATi e nVidia rispetto a quella Intel.

Se consideriamo le cpu, i motivi della minor densità vanno ricercati nelle dimensioni dell'interfaccia con le metallizzazioni e nell'utilizzo di frequenze di funzionamento sensibilmente più elevate.
Se anche andiamo a considerare le ultime cpu di casa Intel e AMD, troviamo che:

Nehalem: circa 731 mln di transistor, die size di 263 mm^2 a 45 nm
Deneb: circa 758 mln di transistor, die size di 258 mm^2 circa a 45 nm

La densità di nehalem e deneb si attesterebbe tra i 10600 e i poco più di 11000 transistor per mm^2 mentre quella presunta di larrabee sui 4000, con un die size enorme e decisamente anti economico

Xeus32
14-04-2009, 13:59
prego astenersi dal commentare tutte quelle persone che credono che le schede video servano solo per giocare...
ed in generale:
fate attenzione: allo stato attuale questo chip è troppo grosso per essere integrato sulla scheda madre,
sarà inizialmente solo su scheda dedicata.
nell'ultimo periodo le video integrate intel sono cresciute parecchio, io non darei per scontato che sia un flop questo salto di livello, potrebbero essere molto competitive sin da subito.

Come non quotarti ma ti facci notare che effettivamente INTEL regna nelle video integrate.
Se dovesse integrare una cosa del genere su una scheda madre ben venga, ma se sarà costretta a ridurre il numero di processori la vedo molto un'arma a doppio taglio! La potenza di un hw specifico contro uno generico e gestito via software è nettamente superiore. Se ci mettesse dentro meno del 4cpu (10%) non ne vale più la pena, ti conviene avere hw dedicato e non sto coso.
4 cpu non sono uguali a 4 core ma poco ci manca visto che nel chip sono in order e su un core 2 sono out of order.
Poi bisogna vedere se continua questa recessione delle prestazioni verso gli atom! Se fosse così un IGP non se ne fa proprio nulla di tutta questa potenza di calcolo perchè la gente non la userebbe su un netbook!

Xeus32
14-04-2009, 14:02
vero, però atteniamoci alle info della news:
larrabee: 1,7 mld di transistor, die size tra i 600 e i 700 mm^2 a 45 nm
GT200: 1,4 mld di tramsistor, die size di circa 470 mm^ a 55 nm
RV770: 956 mln di transistor, die size 256 mm^2 a 55 nm

ammetterai che, anche volendo considerare variazioni della densità, c'è troppa differenza tra quella delle gpu ATi e nVidia rispetto a quella Intel.

Se consideriamo le cpu, i motivi della minor densità vanno ricercati nelle dimensioni dell'interfaccia con le metallizzazioni e nell'utilizzo di frequenze di funzionamento sensibilmente più elevate.
Se anche andiamo a considerare le ultime cpu di casa Intel e AMD, troviamo che:

Nehalem: circa 731 mln di transistor, die size di 263 mm^2 a 45 nm
Deneb: circa 758 mln di transistor, die size di 258 mm^2 circa a 45 nm

La densità di nehalem e deneb si attesterebbe tra i 10600 e i poco più di 11000 transistor per mm^2 mentre quella presunta di larrabee sui 4000, con un die size enorme e decisamente anti economico

Come fai notare ... è un prototipo e sicuramente non si mettono ad ottimizzare un prototipo visto che la intel ci mette circa 6 mesi ad ottimizzarlo. Appena sono sicuri che tutto funziona faranno un aumento della densità!

Foglia Morta
14-04-2009, 14:38
vero, però atteniamoci alle info della news:
larrabee: 1,7 mld di transistor, die size tra i 600 e i 700 mm^2 a 45 nm
GT200: 1,4 mld di tramsistor, die size di circa 470 mm^ a 55 nm
RV770: 956 mln di transistor, die size 256 mm^2 a 55 nm

ammetterai che, anche volendo considerare variazioni della densità, c'è troppa differenza tra quella delle gpu ATi e nVidia rispetto a quella Intel.

Se consideriamo le cpu, i motivi della minor densità vanno ricercati nelle dimensioni dell'interfaccia con le metallizzazioni e nell'utilizzo di frequenze di funzionamento sensibilmente più elevate.
Se anche andiamo a considerare le ultime cpu di casa Intel e AMD, troviamo che:

Nehalem: circa 731 mln di transistor, die size di 263 mm^2 a 45 nm
Deneb: circa 758 mln di transistor, die size di 258 mm^2 circa a 45 nm

La densità di nehalem e deneb si attesterebbe tra i 10600 e i poco più di 11000 transistor per mm^2 mentre quella presunta di larrabee sui 4000, con un die size enorme e decisamente anti economico

Si son d'accordo. Per assurdo: per ATi 1,7 miliardi a 40nm di transistors sarebbero circa 283 mm^2 ( caso in cui RV870 dovesse avere la stessa densità di RV740 , 6mln per mm^2 ). Magari sfruttando le proprie fonderie Intel risparmierà un po, però effettivamente il die size di differenza sarebbe veramente enorme e anti economico. Poi io mi aspetto una soluzione top di gamma dual gpu con l'Hydra engine di lucid logix quindi non faccio fatica a credere che il Larrabee che andrà sul mercato sia più piccolo di quello mostrato nella foto

Darkon
14-04-2009, 14:47
Rimane la domanda a cui mi sembra nessuno mi abbia dato risposta.... USO?

Appurato che tale larrabee non sarà competitivo rispetto a una scheda video dedicata come ATI/nvidia mi domando:

1) USO domestico? Non credo... se anche escludiamo il player le attuali integrate costano meno quindi a che scopo prendersi un larrabee che ti aumenta i costi?

2) Ufficio standard... idem come sopra... se l'ufficio è normale non ha bisogno di potenza video e l'integrata più economica già gli avanza.

3) Uso professionale.... grafici e similari ma anche professionisti di certo vanno in ambito workstation quindi non vedo come possano interessarsi a questo.

4) Usi diversi (leggasi varie ed eventuali) boh... francamente a quel che è dato sapere sembrerebbe una via di mezzo tra la scheda integrata e una scheda dedicata... una via di mezzo che francamente lascia il tempo che trova per le prestazioni che lasciano trapelare adesso... non è così potente da essere professionale/gaming, non è così economica per essere appetibile per la fascia economica/terminale ufficio....

Qualcuno mi dice in che ambito vedrebbe un vero mercato per tale hardware?

coschizza
14-04-2009, 15:05
Rimane la domanda a cui mi sembra nessuno mi abbia dato risposta.... USO?

Appurato che tale larrabee non sarà competitivo rispetto a una scheda video dedicata come ATI/nvidia mi domando:

1) USO domestico? Non credo... se anche escludiamo il player le attuali integrate costano meno quindi a che scopo prendersi un larrabee che ti aumenta i costi?

2) Ufficio standard... idem come sopra... se l'ufficio è normale non ha bisogno di potenza video e l'integrata più economica già gli avanza.

3) Uso professionale.... grafici e similari ma anche professionisti di certo vanno in ambito workstation quindi non vedo come possano interessarsi a questo.

4) Usi diversi (leggasi varie ed eventuali) boh... francamente a quel che è dato sapere sembrerebbe una via di mezzo tra la scheda integrata e una scheda dedicata... una via di mezzo che francamente lascia il tempo che trova per le prestazioni che lasciano trapelare adesso... non è così potente da essere professionale/gaming, non è così economica per essere appetibile per la fascia economica/terminale ufficio....

Qualcuno mi dice in che ambito vedrebbe un vero mercato per tale hardware?

come hai "Appurato" che non sara competitivo. A vedere i dati teorici non si direbbe

Darkon
14-04-2009, 15:25
Bè il conto è fecile.

Ammettiamo che come da news sia al momento dell'uscita con prestazioni similari alle attuali nvidia/ati. Ok ma da qua che esce diciamo che sia inizio 2010? Diciamo che esce 01/01/2010 sul mercato... ora da qua a quella data non è che ati/nvidia stan lì a pettinar bambole...

Ma poi rimane la questione del rapporto e pesantezza che avrà sulla CPU.... Tanto per dirne una... chi ha idea di come lavorerà fra calcolo "normale" e "dialogo grafico". Quanti applicativi lavoreranno bene per questo hardware e saranno ottimizzati?


Ripeto magari alla data di uscita sarà un mega-successo, però al momento non mi convince. Il mercato ha 3 grandi voci... gaming/potenza, economia, lavoro.... francamente nella prima se vince tanto di cappello... praticamente INTEL annienterebbe tutto il resto perchè parliamoci chiaro se INTEL mangia il gaming/potenza mangia il grosso del mercato nvidia/ati. Per quanto riguarda la fascia economia.... mah bisogna vedere a che prezzo verrà lanciato ma sempre da news sembra tutt'altro che economico, lavoro.... mah anche qua non vedo come possa battere una workstation.

Poi ripeto si commenta dati teorici che ognuno interpreta a modo suo.... finchè non ci sarà qualche test pratico e/o un minimo di dati in più è difficile avere un'idea certa, anche perchè a tante domande non è possibile rispondere come: temperatura di esercizio? un conto è avere una scheda da dissipare che scalda a 80°C un conto è avere appiccicato alla CPU qualcosa che scalda a 80°C se scalda a questo modo. Consumo? Quanti watt assorbe? soket... quindi mobo fatta apposta al modico prezzo di?

Inolte come se tutto questo non bastasse già un normale quad core viene gestito da cani dal software attuale che non ottimizza certo i 4 core.... ormai mi domando che impatto avrà un hardware come questo che non solo avrà un'architettura diversa da qualsiasi GPU ma che avrà anche driver (effettivamente saranno necessari????) che la maggior parte dei produttori di software incontreranno per la prima volta.

Non c'è che attendere alla fine.... poi ripeto se fosse veramente top anche come grafica tanto di guadagnato ma non penso che ATI/nvidia staran li a farsi superare.

XMieleX
14-04-2009, 15:32
basta usare google,
verosimilmente questa scheda potrà essere affiancata a una normale video (integrata o meno),
per eseguire calcoli di fisica,
per gestire calcoli CPU-GPU.
se è interessata anche la Apple a questo sistema significa che è ben vendibile..
sarà un'alternativa alle soluzioni ati e nvidia per l'utilizzo con OpenCl e tutti i nuovi linguaggi tipo CUDA e CTM.
probabilmente seguirà una direzione opposta a quella delle video discrete attuali:
parte dal calcolo parallelizzato (più o meno scientifico=grafica, fisica etc) per arrivare, fra qualche anno, all'interno dei computer dedidacati a gaming e ca**ate varie.

Gioman
14-04-2009, 15:51
Vi sbagliate tutti.
Lo utilizzeranno negli elettrodomestici.
Penso che in una lavatrice dovrebbe entrarci:D
Chissà quanti WCPM sarà in grado di compiere !?

blackshard
14-04-2009, 15:54
Sarà per questi motivi che amd ha ritardato il progetto fusion al 2011?

goldorak
14-04-2009, 15:54
Rimane la domanda a cui mi sembra nessuno mi abbia dato risposta.... USO?

Appurato che tale larrabee non sarà competitivo rispetto a una scheda video dedicata come ATI/nvidia mi domando:


Appurato ? Da chi, te l'ha detto topo gigio ? :rolleyes: :asd:


1) USO domestico? Non credo... se anche escludiamo il player le attuali integrate costano meno quindi a che scopo prendersi un larrabee che ti aumenta i costi?


La gente (gamers, hardcore gamers, overlockers, ce l'ho duristi, etc...) spende centinai di € per comprare una scheda video dedicata, quindi se compra ATI o Nvidia non vedo perche' non comprare Intel (sempre che la soluzione sia competitiva s'intende).


2) Ufficio standard... idem come sopra... se l'ufficio è normale non ha bisogno di potenza video e l'integrata più economica già gli avanza.


E infatti, in ufficio comprano soluzioni con video integrato intel, alcune volte con video integrato ati o nvidia.


3) Uso professionale.... grafici e similari ma anche professionisti di certo vanno in ambito workstation quindi non vedo come possano interessarsi a questo.


GPGPU ti dice niente ? Credi veramente che le architetture della GT200 e RV770 siano state ottimizzate per i gamers ? :asd: Ti dice niente Tesla e Firestream ?


4) Usi diversi (leggasi varie ed eventuali) boh... francamente a quel che è dato sapere sembrerebbe una via di mezzo tra la scheda integrata e una scheda dedicata... una via di mezzo che francamente lascia il tempo che trova per le prestazioni che lasciano trapelare adesso... non è così potente da essere professionale/gaming, non è così economica per essere appetibile per la fascia economica/terminale ufficio....


E qua dimostri di non avere capito un h di cosa sia in realta' Larrabee.


Qualcuno mi dice in che ambito vedrebbe un vero mercato per tale hardware?

La Intel sta investendo centinai di milioni di $ per questo progetto, ha 500 persone che lavorano al lato software dell'equazione. Secondo te se non ci vedesse un mercato potenziale farebbe questo tipo di investimento ? :stordita:

goldorak
14-04-2009, 16:12
Nah, in ambito consumer o accelera i giochi o non serve a niente.
Cioé, come "CPU" le prende da un Atom.

(tra l'altro non sono affatto sicuro possa essere usato come "Central Processing Unit" di un computer. Cioé, anche se i core che usa sono da "CPU", non lo si può chiamare CPU)

Nvidia e ATi non la pensano come te. Certo il ruolo primario di una scheda video e' accelerare i giochi. Ma queste gpu ATI/Nvidia/Intel (dx10, future dx11, etc...) sono sempre meno acceleratori grafici e sempre dippiu' GPU. Stanno diventando a tutti gli effetti delle cpu che gestiranno particolarmente bene alcuni carichi di lavoro che non sono adatte alle cpu multicore tradizionali.
Questo lo sa Nvidia, lo sa ATI e lo sa Intel visto che si e' buttata a capofitto nel progetto Larrabee.
In ambito consumer ce interesse verso applicazioni eseguite sulle gpu. Il fatto che ancora non si sia vista la killer application (e no, badaboom e avivo non sono proprio killer application) non significa che il mercato non ci sia.

yossarian
14-04-2009, 16:14
Come fai notare ... è un prototipo e sicuramente non si mettono ad ottimizzare un prototipo visto che la intel ci mette circa 6 mesi ad ottimizzarlo. Appena sono sicuri che tutto funziona faranno un aumento della densità!

anche un aumento della densità potrebbe portare a non pochi problemi, soprattutto al diminuire delle dimensioni dei transistor. Il che significa che l'aumento della densità potrebbe richiedere ulteriori ottimizzazioni e revisioni del chip.
Rimane la domanda a cui mi sembra nessuno mi abbia dato risposta.... USO?

Appurato che tale larrabee non sarà competitivo rispetto a una scheda video dedicata come ATI/nvidia mi domando:

1) USO domestico? Non credo... se anche escludiamo il player le attuali integrate costano meno quindi a che scopo prendersi un larrabee che ti aumenta i costi?

2) Ufficio standard... idem come sopra... se l'ufficio è normale non ha bisogno di potenza video e l'integrata più economica già gli avanza.

3) Uso professionale.... grafici e similari ma anche professionisti di certo vanno in ambito workstation quindi non vedo come possano interessarsi a questo.

4) Usi diversi (leggasi varie ed eventuali) boh... francamente a quel che è dato sapere sembrerebbe una via di mezzo tra la scheda integrata e una scheda dedicata... una via di mezzo che francamente lascia il tempo che trova per le prestazioni che lasciano trapelare adesso... non è così potente da essere professionale/gaming, non è così economica per essere appetibile per la fascia economica/terminale ufficio....

Qualcuno mi dice in che ambito vedrebbe un vero mercato per tale hardware?
larrabee nasce come un chip in grado di svolgere le funzioni tipiche di una gpu con un numero di unità sufficiente a poterlo considerare alla stregua di una gpu di fascia alta. Non ha nulla a che fare con soluzioni video integrate ma va installato sul pcb di una vga come si fa per le gpu discrete.
Inoltre, stando a quannto si sa finora, ha una capacità di calcolo in fp64 superiore a quella di gt200 e, persino, a quella di rv770., il che lo rende, con ogni probabilità, una scelta migliore delle attualisoluzioni ATi e nVidia per il gpgpu.
Quanto potrà essere competitivo da subito come gpu di fascia alta è difficile a dirsi, però questi sono gli ambiti in cui si sviluppa questo progetto.

TheBigBos
14-04-2009, 16:32
Come mai i Wafer li fanno circolari ?

F1R3BL4D3
14-04-2009, 16:34
Come mai i Wafer li fanno circolari ?

Per via della forma del monocristallo di silicio.

Gioman
14-04-2009, 17:10
Da molti commenti sul forum mi è sembrato di capire che l'architettura x86 su cui si basano le cpu attuali non sia molto efficace.
Ora invece questi la portano anche sulle gpu:confused:

Xeus32
14-04-2009, 17:15
perchè il cristallo si accresce girando e tirando il seme all'interfaccia col silicio fuso pure monocristallino in fase di solidificazione

Per via della forma del monocristallo di silicio.

Che cazzate...
Per creare un wafer monocristallino si usa una tecnica basata su cicli termici. Un seme si incastra su un lato del cilindro e nella sua prossimità si porta il silicio quasi alla fusione. Si procede poi a farlo raffreddare portando la a fusione una parte adiacente.
Praticamente si sposata la fiamma (si riscalda a induzione elettromagnetica) longitudinalmente lungo il cilindro.
In seguito a tale processo e se il raffreddamento è sufficientemente lento, il silicio si ricristallizza proseguendo il cristallo impiantato. La forma non è cilindrica ma bensì un lato è tagliato per indicare da che parte è l'orientazione del seme. La forma semicilindrica è dovuta a una maggiore facilità nell'omogenizazione termica, parametro importantissimo per una corretta crescita del seme.

Mercuri0
14-04-2009, 20:17
Nvidia e ATi non la pensano come te. Certo il ruolo primario di una scheda video e' accelerare i giochi.

prego astenersi dal commentare tutte quelle persone che credono che le schede video servano solo per giocare...


Oki riformulo: se Larrabee non accelera bene i giochi, è un progetto in perdita.
Non che lntel non possa permetterselo per spingere "Larrabee 2", eh!

Inoltre per il GPGPU mancano le applicazioni. Sì, entro breve le faranno, ma alla maggior parte degli utenti consumer non servono. La gente vuole gli Atom.

Perciò, una GPU deve prima di tutto accelerare i giochi.

Per altri campi è un altro discorso.


Inoltre, stando a quannto si sa finora, ha una capacità di calcolo in fp64 superiore a quella di gt200 e, persino, a quella di rv770., il che lo rende, con ogni probabilità, una scelta migliore delle attualisoluzioni ATi e nVidia per il gpgpu.

A dirla tutta può darsi che ATI & nVidia facciano un pò marcia indietro sull'FP64 nelle GPU. Mi pare che RV740 di ATI ne sarà sprovvisto, e su beyond3d discutevano quanto costa in termini di transistor l'FP64 nel GT200 di nVidia.

Tant'è che le specifiche di OpenCL 1.0 non prevedono l'FP64 (lo prevedono solo come estensione)

Mercuri0
14-04-2009, 20:20
Da molti commenti sul forum mi è sembrato di capire che l'architettura x86 su cui si basano le cpu attuali non sia molto efficace.
Ora invece questi la portano anche sulle gpu:confused:
Boh, sulle CPU funziona, anche se molti preferiscono magari architetture esoteriche :D (ma non è solo la tecnologia che fa il successo o meno di un'architettura =)

Sulle GPU vedremo cosa ci mostra lntel ;)

Tanto se la legge di Moore rallenta (la legge che dice che più avanti andiamo più facciamo i transistor piccoli) le architetture inefficienti sono destinate a fare una brutta fine :rolleyes:

Mercuri0
14-04-2009, 20:28
Che cazzate...
Per creare un wafer monocristallino si usa una tecnica basata su cicli termici. Un seme si incastra su un lato del cilindro e nella sua prossimità si porta il silicio quasi alla fusione. Si procede poi a farlo raffreddare portando la a fusione una parte adiacente.
Praticamente si sposata la fiamma (si riscalda a induzione elettromagnetica) longitudinalmente lungo il cilindro.
In seguito a tale processo e se il raffreddamento è sufficientemente lento, il silicio si ricristallizza proseguendo il cristallo impiantato. La forma non è cilindrica ma bensì un lato è tagliato per indicare da che parte è l'orientazione del seme. La forma semicilindrica è dovuta a una maggiore facilità nell'omogenizazione termica, parametro importantissimo per una corretta crescita del seme.

Cacchio quanti processisti da queste parti... Cmq pure ricordavo la tecnica... ehm, cazzata, suggerita (in maniera peraltro molto chiara) da Andrea
edit: http://en.wikipedia.org/wiki/Czochralski_process

Certamente ci saranno differenti metodologie, cmq.

Xeus32
14-04-2009, 20:57
meno male che ci sei tu che sei depositario della verità... certo che se nella vita vi comportate come vi ponete sui forum, sarete proprio delle personcine simpaticissime... raccontalo a czochralski che il suo metodo era una cazzata...:rolleyes:

Sorry ... non volevo ...
Giornata difficile ... :mc: :mc: :mc: :mc:

In effetti ho esagerato con i toni!
Scusatemi !

baffman
14-04-2009, 22:05
Vi scaldate per una GPU che ancora non è nemmeno sul mercato.........mi domando come fate a sapere in anticipo quali prestazioni avrà, lavorate forse alla intel?ù

Comunque a quanto dicono loro la parte più importante e complessa è il software che accompagnerà la scheda, sia in fatto di firmware che di driver.

L'hardware ha volutamente un'architettura piuttosto semplice, solo che essendo multi core può gestire almeno le stesse operazioni di una GPU normale.

Il problema di intel è creare un software che gestisca i vari core senza bisogno di ottimizzazioni specifiche nei vari programmi o giochi che ci gireranno sopra, proprio per questo il team di programmatori è ben nutrito.

psychok9
14-04-2009, 22:32
Non ho capito una cosa:
non sarebbe stato meglio fare una cpu quad "relativamente" integrata ed affiancata ad una gpu? E poi passo dopo passo, con le successive versioni, tentarla di integrarla sempre di più con istruzioni sempre più specifiche e in modo da dare tempo al software di adattarsi e integrarsi al nuovo hardware?

Perdonatemi se ho detto ##@#@#! :)

yossarian
15-04-2009, 00:44
A dirla tutta può darsi che ATI & nVidia facciano un pò marcia indietro sull'FP64 nelle GPU. Mi pare che RV740 di ATI ne sarà sprovvisto, e su beyond3d discutevano quanto costa in termini di transistor l'FP64 nel GT200 di nVidia.

Tant'è che le specifiche di OpenCL 1.0 non prevedono l'FP64 (lo prevedono solo come estensione)

RV740 non sarà sprovvisto di fp64. I chip ATi non hanno alu o registri dedicati ma emulano i calcoli fp64 tramite le alu fp32: ogni 5 alu, ovvero quelle appertenti ad uno stesso gruppo o stream processor (o chiamalo come ti pare), emulano un'alu fp64.
Discorso differente per nVidia la cui architettura non è in grado di emulare alu fp64 ed ha bisogno di unità di calcolo dedicate.

SingWolf
15-04-2009, 03:03
Sbavo quando leggo Larrabee... :cry:


Ale!

Capozz
15-04-2009, 07:59
Basta che si sbrigano...se ne parla da anni ormai, e non si sa assolutamente nulla all'atto pratico :D

homero
15-04-2009, 09:44
poverino chi sbava leggendo larrabee!!!
sentite questo è solo marketing...
...quei processori nella foto non sono niente!!!....

...le funzioni descritte nelle GPGPU sono usate in pochissime applicazioni ed anche gli esperti che hanno voluto implementarle in applicazioni di calcolo specifiche si sono trovati ad affrontare grossi problemi di debugging e sopratutto una difficoltà di ottimizzazione del codice che portava ad un incremento di prestazioni non cosi' eccezionale...

pertanto non deliriamo piu' di quanto non si stia facendo...
...ricordo che l'MMX di intel non porto' nessuna rivoluzione ed oggi non se ne parla piu' come delle SSE che sono qualcosa di normale...lo stesso sarà per le funzioni che agevolano il calcolo vettoriale perche' poi in sostanza di questo si tratta...

piantiamola di delirare!!!

Mercuri0
15-04-2009, 10:07
RV740 non sarà sprovvisto di fp64. I chip ATi non hanno alu o registri dedicati ma emulano i calcoli fp64 tramite le alu fp32: ogni 5 alu, ovvero quelle appertenti ad uno stesso gruppo o stream processor (o chiamalo come ti pare), emulano un'alu fp64.
Discorso differente per nVidia la cui architettura non è in grado di emulare alu fp64 ed ha bisogno di unità di calcolo dedicate.
Yep Yoss, ma a quanto pare AMD per RV740 vuol togliere anche il minimo di circuiteria che serve per riconfigurare le alu a 32bit per fare i conti a 64bit (più di "emulazione" parlerei di "riconfigurazione").
O forse semplicemente vuol vendere RV770/790 a chi vuole i calcoli con FP64.

Ma non ho verificato la fonte della notizia e francamente non mi interessa.

Dall'altra parte si fantastica sul fatto che nVidia possa usare un approccio simile a quello di AMD per il GT300. Del resto i transistor per le alu FP64 per nvidia sono un costo che magari il 97% dei suoi clienti non è troppo disposto a pagare, visto che per i giochi non servono.

Non ho capito una cosa:
non sarebbe stato meglio fare una cpu quad "relativamente" integrata ed affiancata ad una gpu? E poi passo dopo passo, con le successive versioni, tentarla di integrarla sempre di più con istruzioni sempre più specifiche e in modo da dare tempo al software di adattarsi e integrarsi al nuovo hardware?

Perdonatemi se ho detto ##@#@#! :)
Va bene anche una GPU separata per far quello che dici, infatti si farà così.
L'integrazione è solo una cosa che riguarda termini di "efficienza".

Il discorso è che lntel vuole la sua GPU, o almeno il suo stream processor, e quindi progetta Larrabee, visto che GPU grosse non ne ha e in altro modo non saprebbe farne.

Una curiosità: prima ancora che di Larrabbee si conoscesse il nome in codice, circolava una voce oscura et misteriosa secondo la quale il progetto "K9" di AMD fosse qualcosa in effetti simile a larrabee. Però AMD avrebbe cancellato il progetto rivelatosi fallimentare (infatti non ci sono proci "K9") e decise di acquistare ATI.

Certo lntel non è AMD, e all'epoca non c'erano i 32nm.

iva
15-04-2009, 10:11
Visto che abbiamo homero che ci spiega le cose cosi' chiaramente non so quanto sia utile postare questo link, da Dr.Dobb's, dove viene discussa l'architettura di Larrabee e le nuove istruzioni, pero' per i curiosi che non scrivono frasi a caso lo faccio lo stesso:
http://www.ddj.com/hpc-high-performance-computing/216402188?pgno=1

E mi permetto di aggiungere un commento tratto dall'articolo:

Tim Sweeney, of Epic Games -- who provided a great deal of input into the design of LRBni -- sums up the big picture a little more eloquently:
Larrabee enables GPU-class performance on a fully general x86 CPU; most importantly, it does so in a way that is useful for a broad spectrum of applications and that is easy for developers to use. The key is that Larrabee instructions are "vector-complete."


Le vere prestazioni si scopriranno appena appariranno i primi benchmark naturalmente, pero' lanciare accuse e proclami senza fondamento sa solo di fanboysmo puro...

yossarian
15-04-2009, 10:56
Yep Yoss, ma a quanto pare AMD per RV740 vuol togliere anche il minimo di circuiteria che serve per riconfigurare le alu a 32bit per fare i conti a 64bit (più di "emulazione" parlerei di "riconfigurazione").
O forse semplicemente vuol vendere RV770/790 a chi vuole i calcoli con FP64.



tutta la linea AMD, a partire da R600, è in grado di fare calcoli fp64 utilizzando le alu fp32 di uno stesso gruppo.
La serie R6x0/RV7x0 ha un'architettura delle alu di tipo vliw dinamico, per cui, a livello di ILP, il compilatore si occupa della ricerca della dipendenza tra le istruzioni (da inviare allo stesso gruppo di alu) e dell'assegnazione delle istruzioni stesse alle unità deputate ad eseguirle, mentre l'inizializzazione delle istruzioni è gestita in HW. Quindi, l'operazione di emulazione o riconfigurazione delle alu si appoggia quasi esclusivamente al SW e le uniche risorse HW sono impiegate per il controllo delle operazioni in esecuzione.



Dall'altra parte si fantastica sul fatto che nVidia possa usare un approccio simile a quello di AMD per il GT300. Del resto i transistor per le alu FP64 per nvidia sono un costo che magari il 97% dei suoi clienti non è troppo disposto a pagare, visto che per i giochi non servono.



su GT300 giravano anche voci che parlavano di un'architettura non più mista MIMD/SIMD ma MIMD pura, il che significherebbe un aumento considerevole della circuiteria dedicata alle operazioni di controllo, trasmissione, ecc, a scapito di quella dedicata ai calcoli (qualcosa molto più in stile cpu, per intenderci).
Al contrario, larrabee si appoggerà molto al compilatore e, rispetto a RV770, presenta unità di tipo fixed function solo a livello di texture unit mentre, anche le rop's dovrebbero essere di tipo programmabile, gestite via SW (c'è da vedere se come VLIW o come EPIC)

Foglia Morta
15-04-2009, 11:59
.....

La fase di debug in che punto si colloca lungo le operazioni necessarie per portare l'hardware sul mercato ?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=13175&Itemid=1

"What you saw is the 'extreme' version, let me put it that way," said Otellini, adding that the GPU is in the debug stage now. "I would expect volume introduction of this product to be early next year."

Comunque la stima dei 1,7 miliardi di transistors penso sia stata fatta con un ragionamento come questo:

http://www.brightsideofnews.com/news/2009/4/10/idf-spring-2009-intel-larrabee-to-feature-17-billion-transistors.aspx
According to our sources, first Larrabee chips will be built using 45nm High-K Hafnium-loving process with a move to 32nm a year after. Now, if Bloomfield die [Core i7] is 263mm2 in size and is consisted out of 731 million transistors, that means that Larrabee's 600mm2 die would end somewhere in the 1.65-1.75B transistor range.

IMO un po troppo approssimativo per un architettura che dovrebbe essere molto diversa.

yossarian
15-04-2009, 12:38
La fase di debug in che punto si colloca lungo le operazioni necessarie per portare l'hardware sul mercato ?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=13175&Itemid=1

"What you saw is the 'extreme' version, let me put it that way," said Otellini, adding that the GPU is in the debug stage now. "I would expect volume introduction of this product to be early next year."

Comunque la stima dei 1,7 miliardi di transistors penso sia stata fatta con un ragionamento come questo:

http://www.brightsideofnews.com/news/2009/4/10/idf-spring-2009-intel-larrabee-to-feature-17-billion-transistors.aspx
According to our sources, first Larrabee chips will be built using 45nm High-K Hafnium-loving process with a move to 32nm a year after. Now, if Bloomfield die [Core i7] is 263mm2 in size and is consisted out of 731 million transistors, that means that Larrabee's 600mm2 die would end somewhere in the 1.65-1.75B transistor range.

IMO un po troppo approssimativo per un architettura che dovrebbe essere molto diversa.
dopo la fase di prototipazione. Schematizzando al massimo, si ha: progettazione, simulazione, prototipazione, debugging e, se tutto fila liscio, produzione.

In quanto alla stima, comunque, se anche avessero fatto quel ragionamento, ci si sarebbe tenuti troppo bassi in relazione alla densità di transistor per mm^2. E, comunque, come fai notare, le due architetture sono profondamente diverse tra loro