110 core per il nuovo processore del MIT, rivolto a desktop e dispositivi mobile

110 core per il nuovo processore del MIT, rivolto a desktop e dispositivi mobile

Il MIT ha realizzato un nuovo microprocessore da 110 core con un occhio di riguardo all'efficienza energetica

di pubblicata il , alle 08:31 nel canale Processori
 

Un processore da 110 core è stato sviluppato dal MIT (Massachussetts Institute of Technology) la cui tecnologia potrebbe essere inserita all'interno di sistemi desktop, così come su dispositivi mobile e server grazie all'architettura mesh volta ad ottenere la migliore efficienza energetica possibile.

Il nuovo processore, chiamato Execution Migration Machine, cerca di ridurre al minimo il traffico di dati interno al chip in modo da ottenere le migliori prestazioni possibili legate a un consumo energetico ridotto, come dichiarato da Mieszko Lis, studente post-laurea e candidato al dottorato di ricerca al MIT. Come riporta PCWorld, il progetto è stato presentato alla conferenza Hot Chips in California e si tratta di un microprocessore general purpose in fase ancora sperimentale: "Non è una tecnologia che puoi comprare per Natale", ha ironizzato Lis durante la presentazione.

Per ridurre il traffico dei dati all'interno del chip, l'intera cache del microprocessore è stata sostituita da un pool di memoria condiviso. Il processore prevede il trasferimento dei dati, riducendo il numero di cicli necessari per trasferire ed elaborare gli stessi. Un'architettura di questo tipo potrebbe essere applicata nei dispositivi mobile, ma anche all'interno di server database.

I ricercatori sostengono che le nuove tecnologie alla base del chip permettono di ridurre di 14 volte il traffico on-chip dei dati, ottenendo risultati eclatanti dal punto di vista del consumo energetico e della dissipazione del calore. In base ai primi test interni effettuati, il processore consentirebbe di avere il 25% di performance in più rispetto a prodotti della concorrenza, anche se non sono stati nominati modelli specifici per poter comprenderne le reali prestazioni.

Nonostante i maggiori produttori di processori si stiano sempre più allontanando dalla prospettiva di aggiungere sempre più core nei loro package, sembra evidente che l'iniziativa del MIT sia rivolta verso un'evoluzione sensibilmente differente. I ricercatori sono riusciti ad inserire 110 core in un package grande 10x10mm, costruito utilizzando un processo produttivo a 45nm.

Un'architettura mesh simile viene utilizzata da alcuni chip di Tilera, che possono arrivare sino a 100 core. Tuttavia Lis ha specificato che il nuovo processore non si basa sulle tecnologie di Tilera, né vuole esserne un successore.

21 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
ulk31 Agosto 2013, 08:53 #1
Mi sa tanto di annuncio per ricevere finanziamenti privati da colossi come Intel , AMD e produtti di chip , chipset mobile.
II ARROWS31 Agosto 2013, 09:48 #2
... che probabilmente già finanziano in altri modi il MIT.


Il punto è che non credo siano interessati... alla fine è un "misero" 25%, cosa può fare che una GPU non può?
Inoltre credo abbiano già i loro progetti interni per questo tipo di cose, non credo siano interessati. Intel qualche anno fa aveva sviluppato un processore scalabile con più di 100 core, non si saranno mica fermati lì...
ulk31 Agosto 2013, 10:01 #3
Originariamente inviato da: II ARROWS
... che probabilmente già finanziano in altri modi il MIT.


Il punto è che non credo siano interessati... alla fine è un "misero" 25%, cosa può fare che una GPU non può?
Inoltre credo abbiano già i loro progetti interni per questo tipo di cose, non credo siano interessati. Intel qualche anno fa aveva sviluppato un processore scalabile con più di 100 core, non si saranno mica fermati lì...


Sicuramente, dimenticavo anche il tentativo di mettersi in luce da parte di neo ingegneri et simila
winebar31 Agosto 2013, 11:03 #4
Originariamente inviato da: II ARROWS
Il punto è che non credo siano interessati... alla fine è un "misero" 25%, cosa può fare che una GPU non può?


Tutto quello che può fare una CPU e che una GPU non può o non è conveniente.

Originariamente inviato da: ulk
Sicuramente, dimenticavo anche il tentativo di mettersi in luce da parte di neo ingegneri et simila


Può anche essere, ma loro sono riusciti a mettere un processore da 100 core con un pool di memoria condiviso al posto delle cache per aumentare l'efficenza in UN ([B][SIZE="5"]1[/SIZE][/B]) cm2 di package a 45 nm (quindi un die verosimilmente più piccolo. Non mi sembra che AMD, Intel e ARM possano fare altrettanto.
Laddove le CPU/APU/SoC più moderni dei tre produttori/licenziatori sono fatte a 32nm (gli AMD FX e Intel SB-E). Quindi se fosse portato a 32/28 nm il package potrebbe diventare ancora meno esoso di spazio e l'efficenza aumenterebbe notevolmente.
Magari a livello di IPC non è granchè, ma IMHO è già un gran bel risultato per essere solo una ricerca (quindi verosimilmente molto migliorabile).
Harlus31 Agosto 2013, 11:38 #5
Sì ma....

ci girerà Crysis?
Hal200131 Agosto 2013, 12:10 #6
Originariamente inviato da: II ARROWS
alla fine è un "misero" 25%


Un misero 25%? Se fosse vero (ed ho i miei dubbi che sia applicabile ad altre architetture) è un risultato strepitoso sia in ottica performance che risparmio energetico. Immagina un processore che rimane in uno stato di idle più profondo di quanto oggi permesso.

La parte dell'articolo da analizzare è questa:
[SIZE="1"]
Per ridurre il traffico dei dati all'interno del chip, [U]l'intera cache del microprocessore è stata sostituita da un pool di memoria condiviso[/U]. Il processore prevede il trasferimento dei dati, riducendo il numero di cicli necessari per trasferire ed elaborare gli stessi. Un'architettura di questo tipo potrebbe essere applicata nei dispositivi mobile, ma anche all'interno di server database.[/SIZE]

Se fosse così semplice da implementare, come mai un colosso come Intel non lo ha mai applicato nei processori moderni?
Comunque questo articolo è fonte di spunti interessanti.
belsi31 Agosto 2013, 12:16 #7
Originariamente inviato da: Harlus
Sì ma....

ci girerà Crysis?


ROFL
II ARROWS31 Agosto 2013, 13:04 #8
Originariamente inviato da: winebar
Tutto quello che può fare una CPU e che una GPU non può o non è conveniente.
Ad esempio?

Questi sono 100 core, i processori odierni hanno 8 core? Oppure confrontavano con i 16 core? Già questo non si sa. Potrebbero aver fatto il confronto con un Pentium 4 per quanto ne sappiamo...

110 core significa che è una piattaforma di calcolo parallelo, o in questo caso gestione di dati. Cosa cambia dalla GPU? Le GPU odierne sono CPU che fanno calcoli paralleli, e sono molto più potenti che solo il 25%.

I programmi invece normalmente non sono così parallelizzabili, per questo motivo questi 100 core non sono molto utili, soprattutto in ambito telefonico, anche l'esperimento Intel non ha poi avuto riscontro...

Non sappiamo neanche quali temperature raggiunge o quanto consuma... insomma, sono belle affermazioni quando non abbiamo un solo metro di paragone... né il processore utilizzato, né il consumo, né il sofware utilizzato...

1 cm di lato a 45 nm, per avere 110 core... probabile che sia efficiente in alcuni casi, ma come se la cava in altri? Se le CPU hanno 8 core e sono più o meno di quelle dimensioni, è anche perché la circuteria è molto più complessa ed è efficiente in una serie di compiti particolari per macinare calcoli non parallelizzabili.
Come può cavarsela questa CPU se l'algoritmo non è parallelizzabile?

Le APU sono fatte per avere una GPU che gestisca le situazioni parallelizzabili automaticamente, che hanno ben più di 110 "core".


Ma alla fine lo sanno anche loro che non è niente di che, visto che hanno scritto che non è qualcosa che si può comprare a Natale.

Originariamente inviato da: Hal2001
La parte dell'articolo da analizzare è questa:
[SIZE="1"]
Per ridurre il traffico dei dati all'interno del chip, [U]l'intera cache del microprocessore è stata sostituita da un pool di memoria condiviso[/U]. Il processore prevede il trasferimento dei dati, riducendo il numero di cicli necessari per trasferire ed elaborare gli stessi. Un'architettura di questo tipo potrebbe essere applicata nei dispositivi mobile, ma anche all'interno di server database.[/SIZE]
Anche una GPU alla fine è così...
djfix1331 Agosto 2013, 13:23 #9
Originariamente inviato da: Hal2001
....

Se fosse così semplice da implementare, come mai un colosso come Intel non lo ha mai applicato nei processori moderni?
Comunque questo articolo è fonte di spunti interessanti.


anche Intel ha fatto ben 2 anni fa una CPU così; solo che dal parlarne ad usarla realmente in un Desktop ce ne passa!
overnoise31 Agosto 2013, 18:18 #10

I miracoli non li fa nessuno.

In effetti, nonostante una riduzione del traffico dati on-chip di ben 14 volte ed un altro ordine di grandezza dei core (100 contro gli attuali 10), l'IPC (parlando a spanne) aumenta di "soli" 25%.

Il problema rimane il saper sfruttare il parallelismo e l'uso im mutua esclusione della memoria...

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^