Intel, chip a 48 core per gli smartphone e tablet di domani

Intel, chip a 48 core per gli smartphone e tablet di domani

Negli Intel Lab si pensa alle piattaforme di domani e la via sembra chiara: drastico aumento dei core nei SoC per tablet e smartphone del futuro, con grande attenzione ai consumi

di pubblicata il , alle 10:01 nel canale Tablet
Intel
 

La via dei SoC utilizzati nei tablet e negli smartphone sembra portare verso una direzione chiara, che prevede l'adozione di un numero sempre maggiore di core al proprio interno. Questi settori, pur essendo molto giovani, stanno dando segnali chiari in tal merito: nel corso dalle origini ad oggi abbiamo assistito all'adozione di SoC con un numero sempre maggiore di core, fino agli attuali configurazioni che ne prevedono due o quattro.

Secondo quanto riportato da Computerworld, però, potremmo essere solo all'inizio. In questi giorni infatti emergono alcune informazioni dall'Intel Lab, al lavoro su un SoC a 48 core pensato per gli smartphone e i tablet che vedremo in futuro, verosimilmente fra i 5 e i 10 anni da ora.

In base alle poche informazioni, sembra chiara l'intenzione di portare ad una struttura molto modulare del potenziale di calcolo, al fine di garantire una notevole potenza elaborativa in caso di necessità, ma al contempo contenere di gran lunga i consumi nel momento in cui tale potenza non verrà richiesta, dando per scontata la possibilità di spegnere i core inutilizzati.

Intel si dice convinta che la potenza di calcolo giocherà un ruolo chiave per i sistemi operativi e le applicazioni di domani, nella stessa misura in cui per decenni è stata al centro del progressi legati al mondo dei PC. Ecco spiegato il motivo per cui, già da ora, si studiano soluzioni che oggi possono sembrare eccessive anche solo a nominarle, ma che potrebbero effettivamente essere la norma fra qualche anno.

Intel non si è presentata in tempo all'appuntamento con il mercato smartphone e tablet della prima ora; appare quindi chiaro come l'azienda californiana intenda rifarsi del tempo perduto, giocando molto di anticipo con soluzioni in grado di incontrare la futura domanda.

30 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
emanuele8301 Novembre 2012, 10:20 #1
Si, come nei primi anni 2000 quando si diceva che per il 2010 si avrebbero avuto frequenze operative a 40 Ghz... Inutile avere un approccio multicore quando le toolsuite di programmazione non sono in grado di supportarli. Secondo me è arduo salire oltre i 6 core (se non per fare pubblicità al proprio prodotto) si avranno sistemi più performanti a minori frequenze occupando meno silicio e integrando anche memorie flash con il sistema operativo oppure direttamente nel SOC il quantuitativo di RAM DDR (3-4-5) necessaria al sistema di funzionare.
coschizza01 Novembre 2012, 11:22 #2
Originariamente inviato da: emanuele83
Si, come nei primi anni 2000 quando si diceva che per il 2010 si avrebbero avuto frequenze operative a 40 Ghz... Inutile avere un approccio multicore quando le toolsuite di programmazione non sono in grado di supportarli. Secondo me è arduo salire oltre i 6 core (se non per fare pubblicità al proprio prodotto) si avranno sistemi più performanti a minori frequenze occupando meno silicio e integrando anche memorie flash con il sistema operativo oppure direttamente nel SOC il quantuitativo di RAM DDR (3-4-5) necessaria al sistema di funzionare.


pero è normale che un azienda investa su piu strade perche non puoi sapere quale sarà la giusta in anticipo (altrimenti non la chiameresti ricerca) e chi avrà investito prima sara quella che ne trarra piu beneficio in futuro. La ricerca di base non si fa su quello che si è certi che sarà il futuro ma volutamente anche su quello che puo sembrare improbabile proprio perche lo scopo delle ricerche in generale è quello di capire le stade giuste o sbagliate da intraprendere cosi in un futuro il know how acquisito ti darà vantaggi nei progetti futuri.

Se una ricerca da esito negativo non è un male è basta ma anche un bene perche singifica che la strada intrapresa è appunto errata e quindi tutti gli altri avranno imparato qualcosa di utile cioè che bisogna guardare da un atra parte.

Prendi per esempio gli studi fatti da intel sulla costruzione di circuiti analogici come trasmettitori wifi in una cpu con tecnologia digitale sono iniziati nel 2002 e tutti intel compresa ha detto che allo stato attuale sembra praticamente impossibile /improbabile poter raggiungere a una soluzione funzionante eppure oggi all' IDF hanno mostrato un prototipo funzionante che all'inizio della ricerca era stato bollato come impossibile. Ora loro che ci hanno investito per un decennio saranno in vantaggio rispetto a tutti gli altri e questo significa che la ricerca ha funzionato, ma sarebbe stato utilissima anche se fosse arrivata a un nulla di fatto.
RAMsterdam01 Novembre 2012, 11:51 #3
Dopo la corsa ai ghz secondo me anche la corsa ai core finirà e non manca neanche molto
coschizza01 Novembre 2012, 12:03 #4
Originariamente inviato da: RAMsterdam
Dopo la corsa ai ghz secondo me anche la corsa ai core finirà e non manca neanche molto


non pensare siamo appena all'inizio sulle cpu puoi avere pochi core ma sulle schede gpgpu ne puoi avere centinaia e migliaia (che non sono core ma unita semplici ), quindi nel futuro il processo continuerà ad andarre avanti anche perche sulla frequanza non si puo piu lavorare se non in minima parte e dovendo aumentare le prestazioni contenedo i consumi non esiste una terza via.
mentalray01 Novembre 2012, 12:11 #5
48 core per gli smartphone di domani ... si ma di quale anno domini?
io7801 Novembre 2012, 12:15 #6
48 core su un tablet non serviranno mai ma su un server, unico ambito in cui penso possano esistere applicazioni che necessitano veramente del multicore, iniziano ad aver senso.

Negli ultimi anni sicuramente lo sfruttamento del multicore è aumentato e da qui a 10 anni non potrà che migliorare la situazione.

roccia123401 Novembre 2012, 12:20 #7
A me non sembra malvagia l'idea di "spezzettare" un core di tot. potenza in 48 core di tot/48 potenza per ridurre i consumi. 48 o qualunque altro numero.
Ad esempio in standby magari basta un solo core attivo e gli altri completamente spenti per consumare poco o nulla. per navigare tra menù o scrivere un messaggio, magari bastano 3-4 core per avere buona/ottima fluidità e velocità.

Certo il problema sono le applicazioni, specie di terze parti, che devono essere in grado di sfruttare a dovere tutti quei core.
marchigiano01 Novembre 2012, 12:55 #8
probabilmente verranno utilizzati come una gpu, quindi 48 core sono credibili
raziel9001 Novembre 2012, 13:02 #9
Potrebbe essere una bella cosa, però esistono solo pochissimi programmi che sfruttano 4 core, e quasi nessuno per i 6 core...io sti processori a 46 core li userei solo x i server o x i grossi desktop, mai su un tablet o smartphone :S
Aegon01 Novembre 2012, 13:06 #10
Questa corsa ai core è un'arma a doppio taglio. In ambito server, o meglio service oriented, ha molto senso ma per tutto il resto assolutamente no; anzi, è una regressione.

Tanto per cominciare i compilatori ed il software stesso diventerebbero talmente complessi che il margine di errore o di deadlock sarebbe altissimo. Già ad oggi software perfettamente parallelizzati se ne vedono pochi, anche in virtù del fatto che non tutti i task si avvantaggiano/necessitano di tanta parallelizzazione.

Secondo, aumentare così tanto il numero dei core significa ad entrare fortemente nel campo statistico del loro utilizzo.
Se è vero che il sistema operativo può impegnarli tutti, è anche vero che col sistema a basso-medio carico ed applicazioni low-threaded molti di questi verrebbero spenti, con un decadimento delle prestazioni... a meno che Intel non riesca a fare 48 core da 1 - 2 GHz, ma avrebbe senso? NO.
Esistono, in ambito consumer - low/mid-business, task tali da occupare core da 1-2GHz per elevati tempi d'esecuzione da richiedere l'intervento di decine di core? Non mi sembra. Forse codice mal scritto.
Figuriamoci su un tablet! (scopriranno nel frattempo come realizzare un reattore ark miniaturizzato o una pila atomica Asimoviana? Per quanto possano consumare poco, tenere 40 core alimentati solo per applicazioni in background è comunque un dispendio.)
Torniamo in loop sul fatto che una così elevata potenza computazionale parallelizzata avvantaggerebbe solo ambito server. Non si può dire neanche scientifici perché lì si usa il GPGPU dove il numero di core e la potenza a disposizione è di gran lunga più elevata.

Tutto questo imho. Non lavoro a Intel ma un saggio dice "il troppo stroppia"

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^