Anche versioni a 6 core per le future CPU Intel Core di fascia mainstream

Coffee Lake, questo il nome in codice della futura architettura Intel per i processori Core destinati al segmento di fascia media del mercato. Confermata indirettamente da un benchmark anche la presenza di versioni a 6 core
di Paolo Corsini pubblicata il 22 Giugno 2017, alle 08:41 nel canale ProcessoriIntelCore
34 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoTra poco usciranno pc con core diversi, proprio come i cellulari.
4 core x uso leggero e consumi e 4 sparati a 6 Ghz per giocare... Io lo so '...
Gli 8 core che vi siano nei cellulari non vuol dire che servano, anzi di solito quei modelli lì prestazionalmente non sono nemmeno tanto validi come altri, servono solamente ad attirare l'attenzione.
I cores eterogenei servono nell'ultra mobile per preservare la batteria, cosa per niente necessaria in un desktop, ed in maniera molto minore nei notebook, visto poi che sarebbe altamente controproducente dal punto di vista prezzo / prestazioni.
mha... qui avrei da ridire...
non sarà oggi, non sarà domani, ma vedrai che si useranno anche CPU con core eterogenei.
il codice è vario, su desktop, e alcune volte non serve SMT e non servono neanche pipeline lunghe.
un core SMT conta piu' del doppio delle risorse di un core normale (tipo CMS del BD) e se hai multidomini energetici e un buon scheduler puoi indirizzare i lavori espressamente non parallelizzabili su questi, ottenendo vantaggi sia nel tempo di esecuzione, sia in consumo.
prendi, ad esempio, Zen e jaguar.
a 14nm nella parte di un cluster Zen (un CCX senza L3) si contano 49mm^2, un solo jaguar fa 1.4mm^2 a 16nm e non certo con la densità transistor dei 14nm GloFo, per la quale potrebbe arrivare ad essere poco piu' di 1mm^2.
metterne 4 che computano anche solo a 2ghz non comporta la perdita di tanto spazio, ed alla fine hai una CPU delle prestazioni di un Athlon X4 5350 (che, insieme alla sua GPU da 128SP, consuma 25W a 28nm... a 14nm e senza GPU saremmo a 5W).
quindi potresti avere il PC perennemente operativo (always on) con un consumo nullo, o comunque dirottarci task specifici, se lo scheduler potesse avere qualità identificative.
io credo che ci arriveremmo anche sui PC a questo discorso, magari non proprio come un Big Little ARM, ma molto, molto simile.
non sarà oggi, non sarà domani, ma vedrai che si useranno anche CPU con core eterogenei.
il codice è vario, su desktop, e alcune volte non serve SMT e non servono neanche pipeline lunghe.
un core SMT conta piu' del doppio delle risorse di un core normale (tipo CMS del BD) e se hai multidomini energetici e un buon scheduler puoi indirizzare i lavori espressamente non parallelizzabili su questi, ottenendo vantaggi sia nel tempo di esecuzione, sia in consumo.
prendi, ad esempio, Zen e jaguar.
a 14nm nella parte di un cluster Zen (un CCX senza L3) si contano 49mm^2, un solo jaguar fa 1.4mm^2 a 16nm e non certo con la densità transistor dei 14nm GloFo, per la quale potrebbe arrivare ad essere poco piu' di 1mm^2.
metterne 4 che computano anche solo a 2ghz non comporta la perdita di tanto spazio, ed alla fine hai una CPU delle prestazioni di un Athlon X4 5350 (che, insieme alla sua GPU da 128SP, consuma 25W a 28nm... a 14nm e senza GPU saremmo a 5W).
quindi potresti avere il PC perennemente operativo (always on) con un consumo nullo, o comunque dirottarci task specifici, se lo scheduler potesse avere qualità identificative.
io credo che ci arriveremmo anche sui PC a questo discorso, magari non proprio come un Big Little ARM, ma molto, molto simile.
Si ma l'aggiunta di questi "mule cores" costano silicio.
I cores eterogenei li puoi avere ma non a tal fine, ma a massimizzare le prestazioni.
in finale, se ci pensi, anche le AVX512 sono core specializzati, ma lo sono anche troppo, tanto da doverli usare con istruzioni dedicate.
anche quelli pero' hanno una elevatissimo rapporto preformance/watt.
credo che questo aspetto possa essere portato anche su codice generalista, e meglio ancora su codice neutro (non ottimizzato).
parliamo pero' di affinamenti che oggi non possono essere messi in atto per via di tecnologie del kernel ancora non implementate.
ti dico che gli skylake-X oggi hanno mostrato ancora poco proprio per deficenze dello scheduling (ed intendo piu' consumo per meno prestazioni).
probabilmente uno dei prossimi step sarà quello di mettere un layer HW tra l'HW che conosciamo oggi e il SW a basso livello del kernel, in modo da riorganizzare il lavoro per ottimizzarlo all'architettura, perchè via software.. diventa un po' ostico (non impossibile, ma richiederebbe ottimizzazioni per singolo modello di processore, non solo architettura).
AMD ha messo una specie di IA, ma credo che non si occupi assolutamente della gestione thread, solo dell'efficienza energetica.
ad oggi è necessario identificare anche i singoli core dei singoli modelli dei processori a livello di schedulazione, dando priorità a quelli piu' veloci (analizzando le latenze ed il disegno del 18 core skylake-X esce fuori che 2 core sono piu' lenti degli altri, sempre).
l'unica cosa che distingue oggi i core è se sono su una CPU o su un'altra in multiprocessor.
ci stanno mettendo mano, ma non è facile (in effetti si sconvolge del tutto la gerarchia paritaria di scheduling)
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".