|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/cpu/nuo...bee_22596.html
Non solo calcolo parallelo ma anche grafica tradizionale per la futura architettura Intel di tipo multicore Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: May 2007
Città: Bari
Messaggi: 709
|
ottimo
__________________
Lenovo Thinkpad Yoga P40 6500U/(500 + 512) SSD/ 16GB Acer 5920g: T9300/6GB/256GB SSD + 250GB SSD/Mobility HD 3650 512MB/ Windows 8.1 |
![]() |
![]() |
![]() |
#3 |
Member
Iscritto dal: Dec 2004
Città: /dev/urandom
Messaggi: 112
|
non ho capito: se è specificamente sviluppata per gli ambiti del calcolo scientifico e dell'analisi finanziaria, perchè alla fine dice che la usano anche i game developers? ci dobbiamo aspettare una simile architettura anche su sistemi desktop?
|
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Jan 2003
Città: Atlantide (AT)
Messaggi: 2506
|
Quote:
Voglio proprio vedere come sarà accolta dagli sviluppatori , ormai abituati da anni a lavorare sugli shader o in OpenGL , la notizia che il loro posto di lavoro è in bilico... Posso capire che la parte riguardante l'I.A. e i vari menù di gioco sia ancora scritta in x86 e poi compilata , ma scrivere in x86 anche il motore di rendering e i vari effetti non mi sembra un approcio così semplice come lo si vuol dipingere... Ormai , fra quelli che sviluppano videogiochi , ne rimangono ben pochi a scrivere un engine da zero... e a questo punto , viste le premesse , spero sia compatibile con gli attuali giochi in DX... |
|
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Jun 2002
Città: Verona
Messaggi: 878
|
Effettivamente associare Larrabee alla recente acquisizione ti porta a pensare che vogliano sviluppare una scheda per la fisica.
Comunque credevo che Larrabee fosse un processore multicore e che non si potesse adattare a questo tipo di approccio. Anche se effettivamente se deriva dalle architetture general prupose, quindi adattabili a scopi diversi. Vedremo, sono curioso. ![]()
__________________
» Mobile : Macbook Pro Mid2012 | 16GB RAM SO-DIMM DDR3 1600 MHz | SSD Samsung 850 Pro 512GB « » Mobile : MacBook Pro (13-inch, 2018, Four Thunderbolt 3 Ports | 16 GB 2133 MHz LPDDR3 | SSD 512GB « |
![]() |
![]() |
![]() |
#6 | |
Senior Member
Iscritto dal: Jan 2003
Città: Atlantide (AT)
Messaggi: 2506
|
Quote:
We've known that Larrabee would be Intel's discrete GPU, but Intel never confirmed it until today. Intel always talked about Larrabee as being great for scientific computing and financial applications, today it finally confirmed that it would also be great for graphics. Oltre essere estremamente performante in ambito gpgpu sarà anche una VGA , esattamente come G80 o R600 |
|
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Feb 2003
Messaggi: 3880
|
Intel vuole dominare il mondo a quanto pare :P
|
![]() |
![]() |
![]() |
#8 | |
Senior Member
Iscritto dal: Sep 2005
Messaggi: 2717
|
Quote:
![]() non è che ti stai confondendo un attimo ? l'impressione è che "mischi" insieme livelli diversi, le dx o opengl sono librerie per programmazione ad alto livello, l'arch. hw della gpu sarà materia principalmente per chi scriverà il drv, questo almeno se intel proporrà una gpu che, attraverso il driver, espone le funzionalità dettate dalla sepcifiche dx & ogl, così come le gpu di ati ed nv... ... certo se larrabee non sarà né dx né ogl compatibile ed le game-houses avranno a dispsizione il solo driver di intel per sfruttare un'architettura hw che si rivelerà un mondo a sé stante(rispetto a quanto usato per la grafica dei vg nell'ultimo decennio e più) , potrebeb essere abbastanza dura vedere effettivamente larrabee usata come gpu da gioco, quantomeno in tempi rapidi, probabilmente in tale scenario i dev dovrebbero sviluppare un engine grafico per andare sulle gpu dx e uno per quella intel ... ![]() (se intel si espone già ora con dichiarazioni sul mondo game, mi sembrerebbe peròstrano che non avessero progettato di implementare dx e/o ogl ... a meno che la possibilità "grafica tardizionale" per larrabee non sia solo un di più che anche rimanesse nel tempo solo teoria o poco più ad intel non importa praticamente nulla)
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein fonte: http://it.wikiquote.org/wiki/Albert_Einstein |
|
![]() |
![]() |
![]() |
#9 |
Senior Member
Iscritto dal: Jan 2002
Città: La Capitale
Messaggi: 3885
|
bah, non capisco sto ritorno al passato
Le schede grafiche nascono proprio perché il processore è insufficiente a gestire la grafica 3d, e dal momento che larrabee utilizza lo stesso set di istruzioni x86 e deriva dalla stessa architettura che vantaggi potrebbe portare rispetto alle schede video più recenti sviluppate appositamente per il pipelining a shader programmabili ? Perché abbandonare lo shading, ma soprattutto che tipo di altro approccio si può avere su una futura gpu basata su larrabee ? |
![]() |
![]() |
![]() |
#10 |
Member
Iscritto dal: Nov 2001
Messaggi: 206
|
La programmazione di Gpu è più complicata e costosa rispetto la progammazione di Cpu x86. Per questo motivo probabilmente Larrabee sarà un dispositivo (non cpu) che integrerà al suo interno numerosi core x86 semplificati (magari con cache L1 e L2 ridotte al minimo) dell'ordine di 64 o 128. Tutte collegate a cache L3 condivisa di qualche MB. Il loro scopo non sarà quello di elaborare dati complessi, ma di elaborare una grandissima quantità di dati semplici.
|
![]() |
![]() |
![]() |
#11 | |
Senior Member
Iscritto dal: Sep 2005
Messaggi: 2717
|
Quote:
![]()
__________________
"La teoria è quando si sa tutto ma non funziona niente. La pratica è quando funziona tutto ma non si sa il perché. In ogni caso si finisce sempre con il coniugare la teoria con la pratica: non funziona niente e non si sa il perché." - Albert Einstein fonte: http://it.wikiquote.org/wiki/Albert_Einstein |
|
![]() |
![]() |
![]() |
#12 | |
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3682
|
Quote:
x86 è un architettura così come amd64/emt64 etc.etc., tutti gli windows a 32 bit (dal 95 a XP, e poi Vista 32 bit) girano su x86, e quindi anche le DX, che sono capaci di lavorare anche su amd64/intel64. Le OpenGL invece volendo girano su tutto, x86,amd64/intel64,ppc, ppc64, sparc, persino sotto gli ARM (ovvio che servirebbe un chip video adeguato). Chi programma OpenGL non ha affatto il lavoro in bilico, anzi è molto più al sicuro di chi usa DX, le OpenGL sono molto più "portabili"... Inoltre "scrivere in x86" è quello che i programmatori fanno già da anni. Larrabee va allora visto come qualcosa simile ad un Cell che invece di avere delle SPE ha dei "pentium singolo core semplificati ma veloci". (la domanda importante è quanto semplificati e quanto veloci). Ultima modifica di DevilsAdvocate : 19-09-2007 alle 15:53. |
|
![]() |
![]() |
![]() |
#13 |
Senior Member
Iscritto dal: Jan 2005
Messaggi: 1963
|
Intanto è sicuro che verrà utilizzato come diciamo un "coprocessore", per calcoli scientifici e finanziari. Molto probabilmente varrà utilizzato anche per calcoli fisici. Che poi possa anche venir usato come GPU, si vedrà - a me non sembra ci sia stata una dichiarazione esplicita di Intel.
=Edit= come non detto: http://arstechnica.com/news.ars/post...e-part-ii.html Ultima modifica di bist : 19-09-2007 alle 15:54. |
![]() |
![]() |
![]() |
#14 | ||
Senior Member
Iscritto dal: Jan 2003
Messaggi: 3682
|
Quote:
spreco usare un gran numero di cores-x86 per fare quello che oggi fa una 8600GT (ovviamente sottintendendo che siano davvero molto simili agli x86).... O forse ci sono due tipi di cores differenti, ed uno di questi è più gpu oriented degli x86, boh... EDIT: dopo aver letto http://arstechnica.com/news.ars/post...e-part-ii.html , si direbbe che invece si basa proprio sui cores x86 con solo l'aggiunta di un poco di hardware esterno, il che però mi porterebbe a pensare che non siano poi così tanto simili all'x86 ma abbiano un set di istruzioni parecchio ridotto (e forse anche con qualche aggiunta). SECONDO EDIT: infatti il vecchio articolo di ars technica la spiega in modo un pò diverso: Quote:
(l'architettura può anche usare codice x86,sempre che le basti il subset, ma sarebbe ottimizzato pochissimo quando usata come GPU...) Ultima modifica di DevilsAdvocate : 19-09-2007 alle 16:08. |
||
![]() |
![]() |
![]() |
#15 | |
Senior Member
Iscritto dal: Jan 2003
Città: Atlantide (AT)
Messaggi: 2506
|
Quote:
Eppure , nel regolamento , non mi pare ci fosse l'obbligo di essere ing informatici per postare... :| |
|
![]() |
![]() |
![]() |
#16 |
Bannato
Iscritto dal: Aug 2001
Città: Berghem Haven
Messaggi: 13526
|
Se si userà il raytracing lo shading come lo conosciamo noi sarà ben presto inutile
![]() |
![]() |
![]() |
![]() |
#17 |
Senior Member
Iscritto dal: Jan 2005
Messaggi: 1963
|
|
![]() |
![]() |
![]() |
#18 |
Bannato
Iscritto dal: Mar 2002
Città: Pescara - 未婚・恋人なし Moto: Honda CBR 1000 RR Casco: XR1000 Diabolic 3
Messaggi: 27578
|
|
![]() |
![]() |
![]() |
#19 |
Senior Member
Iscritto dal: Mar 2004
Città: In una casa. Dove cavolo dovrei vivere???
Messaggi: 1723
|
@nonickname: se è per questo nemmeno i giovani sono preparati all'argomento... se solo sapessi all'ITIS dove andavo io che merdaio c'era in termini di ignoranza informatica ti spareresti un colpo in gola... Non sanno mettere su nemmeno una rete con un cavo crossed... in WINDOWS... '-.- il che è tutto un dire... Se lo do al mio gatto il cavo crossed me la fa la rete... se lo do ad uno uscito dall'ITIS no...
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 13:10.