|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75173
|
Link alla notizia: http://www.hwupgrade.it/news/cpu/110...ile_48445.html
Il MIT ha realizzato un nuovo microprocessore da 110 core con un occhio di riguardo all'efficienza energetica Click sul link per visualizzare la notizia. |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Sep 2000
Città: WOLF 389 VULCANO ** Ho scelto di vivere per sempre............................ per ora ci sono riuscito.
Messaggi: 8429
|
Mi sa tanto di annuncio per ricevere finanziamenti privati da colossi come Intel , AMD e produtti di chip , chipset mobile.
|
![]() |
![]() |
![]() |
#3 |
Bannato
Iscritto dal: Aug 2005
Città: Buguggiate(VA)
Messaggi: 12007
|
... che probabilmente già finanziano in altri modi il MIT.
![]() Il punto è che non credo siano interessati... alla fine è un "misero" 25%, cosa può fare che una GPU non può? Inoltre credo abbiano già i loro progetti interni per questo tipo di cose, non credo siano interessati. Intel qualche anno fa aveva sviluppato un processore scalabile con più di 100 core, non si saranno mica fermati lì... |
![]() |
![]() |
![]() |
#4 | |
Senior Member
Iscritto dal: Sep 2000
Città: WOLF 389 VULCANO ** Ho scelto di vivere per sempre............................ per ora ci sono riuscito.
Messaggi: 8429
|
Quote:
|
|
![]() |
![]() |
![]() |
#5 | ||
Senior Member
Iscritto dal: Jul 2011
Città: Milano
Messaggi: 986
|
Quote:
![]() Quote:
![]() Laddove le CPU/APU/SoC più moderni dei tre produttori/licenziatori sono fatte a 32nm (gli AMD FX e Intel SB-E). Quindi se fosse portato a 32/28 nm il package potrebbe diventare ancora meno esoso di spazio e l'efficenza aumenterebbe notevolmente. Magari a livello di IPC non è granchè, ma IMHO è già un gran bel risultato per essere solo una ricerca (quindi verosimilmente molto migliorabile). Ultima modifica di winebar : 31-08-2013 alle 10:06. |
||
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Jul 2007
Messaggi: 400
|
Sì ma....
ci girerà Crysis? ![]() |
![]() |
![]() |
![]() |
#7 |
Senior Member
Iscritto dal: Aug 2004
Messaggi: 19345
|
Un misero 25%? Se fosse vero (ed ho i miei dubbi che sia applicabile ad altre architetture) è un risultato strepitoso sia in ottica performance che risparmio energetico. Immagina un processore che rimane in uno stato di idle più profondo di quanto oggi permesso.
La parte dell'articolo da analizzare è questa: Per ridurre il traffico dei dati all'interno del chip, l'intera cache del microprocessore è stata sostituita da un pool di memoria condiviso. Il processore prevede il trasferimento dei dati, riducendo il numero di cicli necessari per trasferire ed elaborare gli stessi. Un'architettura di questo tipo potrebbe essere applicata nei dispositivi mobile, ma anche all'interno di server database. Se fosse così semplice da implementare, come mai un colosso come Intel non lo ha mai applicato nei processori moderni? Comunque questo articolo è fonte di spunti interessanti.
__________________
"Le statistiche sono come le donne lascive: se riesci a metterci le mani sopra, puoi farci quello che ti pare" Walt Michaels |
![]() |
![]() |
![]() |
#8 |
Senior Member
Iscritto dal: Sep 2010
Città: Sorrento(NA) - "Fast + Cheap = Not Good"
Messaggi: 1672
|
__________________
Sys config: TUF G. X570PRO(wifi) - AMD R7 3700x - 16GB DDR4 1600mhz - SSD M2 1TB - GTX 1660 super - Win11Pro + FX505DT laptop "Se una cosa è gratis la merce sei tu" Trattative positive (dalla più recente)(vendite)LiquidMik;bronzodiriace; frantheman;Sinclair63;antonioalex;Ntropy;KabalaKabala;HAZArD01;(acquisti)ingwye,AntecX,gigarobot |
![]() |
![]() |
![]() |
#9 | ||
Bannato
Iscritto dal: Aug 2005
Città: Buguggiate(VA)
Messaggi: 12007
|
Quote:
Questi sono 100 core, i processori odierni hanno 8 core? Oppure confrontavano con i 16 core? Già questo non si sa. Potrebbero aver fatto il confronto con un Pentium 4 per quanto ne sappiamo... 110 core significa che è una piattaforma di calcolo parallelo, o in questo caso gestione di dati. Cosa cambia dalla GPU? Le GPU odierne sono CPU che fanno calcoli paralleli, e sono molto più potenti che solo il 25%. I programmi invece normalmente non sono così parallelizzabili, per questo motivo questi 100 core non sono molto utili, soprattutto in ambito telefonico, anche l'esperimento Intel non ha poi avuto riscontro... Non sappiamo neanche quali temperature raggiunge o quanto consuma... insomma, sono belle affermazioni quando non abbiamo un solo metro di paragone... né il processore utilizzato, né il consumo, né il sofware utilizzato... 1 cm di lato a 45 nm, per avere 110 core... probabile che sia efficiente in alcuni casi, ma come se la cava in altri? Se le CPU hanno 8 core e sono più o meno di quelle dimensioni, è anche perché la circuteria è molto più complessa ed è efficiente in una serie di compiti particolari per macinare calcoli non parallelizzabili. Come può cavarsela questa CPU se l'algoritmo non è parallelizzabile? Le APU sono fatte per avere una GPU che gestisca le situazioni parallelizzabili automaticamente, che hanno ben più di 110 "core". Ma alla fine lo sanno anche loro che non è niente di che, visto che hanno scritto che non è qualcosa che si può comprare a Natale. Quote:
|
||
![]() |
![]() |
![]() |
#10 |
Senior Member
Iscritto dal: Oct 2009
Messaggi: 3619
|
anche Intel ha fatto ben 2 anni fa una CPU così; solo che dal parlarne ad usarla realmente in un Desktop ce ne passa!
__________________
Acer NITRO:AN515-58 Chuwi MiniBook X N100 Tablet:Samsung TAB S7 Mobile:Samsung Note 10+ Smartwatch:Samsung Galaxy Watch7 Console:Retroid Pocket 5 |
![]() |
![]() |
![]() |
#11 |
Junior Member
Iscritto dal: Aug 2006
Città: Johannesburg
Messaggi: 27
|
I miracoli non li fa nessuno.
In effetti, nonostante una riduzione del traffico dati on-chip di ben 14 volte ed un altro ordine di grandezza dei core (100 contro gli attuali 10), l'IPC (parlando a spanne) aumenta di "soli" 25%.
Il problema rimane il saper sfruttare il parallelismo e l'uso im mutua esclusione della memoria... |
![]() |
![]() |
![]() |
#12 |
Senior Member
Iscritto dal: Jul 2010
Messaggi: 384
|
Bello che terze parti tornino a studiare e progettare nuove piattaforme, è sempre una cosa positiva che aumenta la concorrenza e le prestazioni.
La cosa anormale sono stati gli ultimi 30 anni con il quasi monopolio di una sola piattaforma di una sola azienda. |
![]() |
![]() |
![]() |
#13 |
Senior Member
Iscritto dal: Jul 2005
Città: terra di nessuno
Messaggi: 2324
|
Io la rivoluzione non la vedo nei 110 core, la vedo nel pool di memoria condivisa. Cioè usare questo tipo di architettura significherebbe eliminare la ram per sostituirla con la cache del processore, cosa mai fatta per problemi di costi (la cache costa molto più della ram). Ma con un sistema on-die, che permette agli elettroni di fare percorsi molto più brevi, e con chip di ram sufficientemente veloci come la futura DDR 4 potrebbe essere una strada percorribile. Elimini un passaggio da: HDD->ram->cache->CPU->cache->ram a HDD->ram/cache->CPU->ram/cache. Il tutto sarebbe molto più veloce ed efficiente, il problema sinora sono stati i costi dei chip usati per la cache.
__________________
Senza cuore saremo solo macchine |
![]() |
![]() |
![]() |
#14 | |
Senior Member
Iscritto dal: Oct 2009
Messaggi: 3619
|
Quote:
Avere 16GB di Ram non conclude il ciclo di stoccaggio dei dati...serve un HDD. la cache non è un tramite con la ram ma è uno stack elaborativo prettamente interno (in pratica non memorizza Dati ma istruzioni elaborative e valori di elaborazione)...se viene condivisa questo vuol dire che i core possono vedere le istruzioni da eseguire e possono elaborare un processo in maniera indipendente ognuna. questo velocizza il lavoro ma ciò non toglie che al termine dell'elaborazione cpu<->cache sia necessario rimemorizzare dati che vengono spediti in RAM (->HDD se si tratta di dati fissi come una foto o un testo)
__________________
Acer NITRO:AN515-58 Chuwi MiniBook X N100 Tablet:Samsung TAB S7 Mobile:Samsung Note 10+ Smartwatch:Samsung Galaxy Watch7 Console:Retroid Pocket 5 |
|
![]() |
![]() |
![]() |
#15 |
Senior Member
Iscritto dal: Nov 2005
Messaggi: 2095
|
Visto che il 90% del software è ancora mono-thread è inutile avere 2 core o 8 o 100... tanto nulla potrebbe sfruttarli!
La vera rivoluzione sarebbe se la CPU fosse in grado di "trasformare" codice mono-thread in multi-thread in realtime... ovvero trovare parallelismi che il programmatore non ha saputo trovare! Allora sì che avrebbe senso avere 2-4-8... o 100 core, così com'è oggi è solo tecnologia non sfruttata, purtroppo ![]() |
![]() |
![]() |
![]() |
#16 | |
Senior Member
Iscritto dal: Oct 2009
Messaggi: 3619
|
Quote:
__________________
Acer NITRO:AN515-58 Chuwi MiniBook X N100 Tablet:Samsung TAB S7 Mobile:Samsung Note 10+ Smartwatch:Samsung Galaxy Watch7 Console:Retroid Pocket 5 |
|
![]() |
![]() |
![]() |
#17 |
Member
Iscritto dal: May 2011
Messaggi: 107
|
Ricerca molto interessante, a mio avviso per almeno i seguenti punti:
1) General porpouse processing, per meglio dire, fa qualcosa di generico, cosa che le GPU non riescono (ho seguito qualche lezione sulla tecnologia CUDA, un incubo da programmare hehe). E qui possiamo arrivare a gestione di interrupt (magari un core può gestire lo scheduler, un altro le usb ecc...). 2) "Come può cavarsela questa CPU se l'algoritmo non è parallelizzabile?" beh nel peggiore dei casi, il sistema operativo (che deve essere adattato, secondo me uno scheduler round robin non è adatto al caso) gestisce per lo meno l'assegnazione dei vari processi ai core. Contando che ogni OS ha almeno un centinaio di processi attivi, anche in idle, lo vedo come un ottima opportunità. Non parliamo poi dei server e dei vari processi di apache / inetd. 3) L'approccio cache / ram di cui si parla nell'articolo. Che tra l'altro è simile all'approccio utilizzato nelle GPU. Riassumendo, rimane sempre un esperimento. Ma anche i transistor all'epoca erano degli esperimenti ![]() Credo inoltre che non siano risorse sprecate quelle nello studio dei consumi energetici, assolutamente, al giorno d'oggi abbiamo potenza PIU' che a sufficienza per i bisogni della maggior parte delle persone, e quindi anche se queste CPU non garantiscono magie rispetto ad oggi, è pur sempre importante che i consumi diminuiscano vertiginosamente. ...mi sono dilungato un po' ![]() |
![]() |
![]() |
![]() |
#18 | |
Senior Member
Iscritto dal: Jul 2005
Città: terra di nessuno
Messaggi: 2324
|
Quote:
![]()
__________________
Senza cuore saremo solo macchine |
|
![]() |
![]() |
![]() |
#19 |
Senior Member
Iscritto dal: Aug 2006
Città: Caldiero (VR)
Messaggi: 3476
|
Sono perplesso...a livello desktop o mobile...che me ne faccio di 100 core? Già uno smartphone ne usa 2 si e no...su pc 4 o 8 che siano fisici o virtuali non li sfrutti fino in fondo...
|
![]() |
![]() |
![]() |
#20 | |
Senior Member
Iscritto dal: Oct 2009
Messaggi: 3619
|
Quote:
tecnicamente con la cache presente oggi una CPU fa girare dentro se stessa un intero sistema DOS o Win3.0...ma sono passati 30 anni e questo vorrebbe dire che ci vogliono almeno 15/20 anni per avere valori di cache sul GB (sempre che abbia senso dato che si tende ad ottimizzare il codice e quindi a ridurre le esigenze in termini di spazio istruzione/risultato)...contando poi che la stessa ram aumenta di velocità ogni anno non è quello il collo di bottiglia (che per anni è stato l' HDD ora con l'SSD è diverso)
__________________
Acer NITRO:AN515-58 Chuwi MiniBook X N100 Tablet:Samsung TAB S7 Mobile:Samsung Note 10+ Smartwatch:Samsung Galaxy Watch7 Console:Retroid Pocket 5 |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 23:59.