Intel negli smartphone? Non è un problema, secondo ARM

Intel negli smartphone? Non è un problema, secondo ARM

L'ingresso di Intel nel mercato degli smartphone, annunciato al CES di Las Vegas, non sembra preoccupare l'azienda che è la forza dominante in questo interessante settore

di pubblicata il , alle 10:01 nel canale Processori
IntelARM
 
36 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
lonewo|_f15 Gennaio 2012, 11:13 #21
Originariamente inviato da: shodan
Scusami, hai letto i valori di consumo riportati da Anand? Sono _inferiori_ a quelli di un un dual core A9 @ 1.2 Ghz, mentre le prestazioni dell'Atom sono superiori.


a9 a 45 nanometri, medfield a 32.

a 32 nm fai un a15 che consuma come un A9, con il 50% di prestazioni in più in integer e 7 volte le prestazioni in FP
serbring15 Gennaio 2012, 11:42 #22
Originariamente inviato da: shodan
Scusami, hai letto i valori di consumo riportati da Anand? Sono _inferiori_ a quelli di un un dual core A9 @ 1.2 Ghz, mentre le prestazioni dell'Atom sono superiori.




Non mi riferivo a questo, quanto al fatto che anche il core "RISC" interno ormai non è più riferibile come tale, e nelle letteratura sono anni che si accenna a "post-RISC" o termini simili. Il motivo è duplice:
- da un lato, le micro-operazioni che vendono eseguite dal core sono molto più potenti rispetto alle semplici load/store/arithmetic, e quindi anche la micro-ISA interna è più flessibile / compatta rispetto a una RISC pura (alcune microistruzioni fanno un read-modify-write del dato, effettivamente equivalendo a 3 operazioni RISC). Intel e AMD usano terminologia differente e a volte confusionaria, ma entrambe si sono mosse in questa direzione ormai da anni;
- tutte le istruzioni vettoriali (SIMD) aggiunte nel corso del tempo hanno esteso moltissimo l'ISA originaria, e la micro-ISA interna è stata estesa alla stessa maniera. In definitiva, la "vecchia" definizione di x86 = decoder CISC + core RISC non è più accurata come ai tempi del PPro / K6 (anche se rimane una buona approssimazione).


E' un incubo solo per il decoder, tutti gli altri stage possono lavorare al meglio delle proprie capacità. Anzi, forse anche di più, in quanto il codice CISC ha una compattezza irragiungibile per quello RISC, portando a un migliore utilizzo della cache istruzioni.


L'ISA esterna, dal punto di vista dei consumi, è quasi irrilevante, o per lo meno pesa molto di meno di quello che si voglia far credere. Consiglio questo thread molto interessante: http://www.realworldtech.com/forums...FTOKEN=49190965

Certo, poi ci sono casi e casi: Larrabee, con i suoi 48 core, avrebbe pagato uno scotto abbastanza salato per 48 decoder, ma era un caso particolare. Inoltre Intel si è già mossa con decisione per eliminare l'overhead dato dai decoder, rimuovendo la loro funzione dal critical path della maggior parte delle istruzioni: si guardo il Loop Detector nei processori di classe Nehalem e, soprattutto, la Trace Cache dei Sandy Bridge (capace, a detta di Intel, di eliminare la necessità del decoder nell'80% dei casi).



Le vecchie istruzioni arcaiche sono microcodate, e non vanno ad appesantire né i decoder veri e propri, né il core di esecuzione stesso. La maggior produzione di calore dei chip Intel è dovuta alle alte prestazioni messe in gioco, il cui aumento non è sempre lineare (per capirci: raddoppiare le prestazioni di un processore potrebbe richiedere un aumento >2X della produzione di calore). E' anche per questo che le nuove regole di design di Intel prevedono l'implementazione di una nuova feature solo se il rapporto prestazioni/calore è di 2:1 in favore delle prestazioni.

Infine, un ultimo test in cui un dual core A9 viene confrontato con altri processori x86 in ambiente Linux: http://www.phoronix.com/scan.php?pa...rd_es&num=4

Come potete vedere, l'A9 viene nettamente superato dal più lento degli Atom in praticamente tutti i test. Certo, l'Atom in questione consuma di più, ma il Medfield oggetto della news di hardware upgrade mantiene più o meno le stesse alte prestazioni, consumando però _meno_ di un SoC ARM.

Un'ultima nota: tutto questo non significa che la piattaforma Intel avrà successo. Ci sono mille altri motivi, molto più seri (di cui solo alcuni tecnici), per i quali potrebbe non essere adottata. Semplicemente, quello che voglio dire è che l'ISA x86 non è un fattore così penalizzante come si voglia far credere, per lo meno dal punto di vista dei consumi.

Ciao.


molto interessante, mi piacerebbe capirne di più, hai qualche link da segnalarmi per avere le basi sull'argomento?
pabloski15 Gennaio 2012, 13:02 #23
Originariamente inviato da: shodan
Scusami, hai letto i valori di consumo riportati da Anand? Sono _inferiori_ a quelli di un un dual core A9 @ 1.2 Ghz, mentre le prestazioni dell'Atom sono superiori.


è bello fare i bench come fanno loro, eliminando i casi reali

invece un arm a 500 mhz se la giocava con un atom a 1,6 ghz e questo grazie ai vari chip acceleratori dell'arm

è chiaro che se si testa solo la cpu nuda e cruda sembra che arm perda

alla fine l'atom un chip di decodifica h264 non ce l'ha, arm si e nei casi pratici vince arm

poi se intel riuscirà a fare altrettanto, infilando chip acceleratori nel die della cpu allora potrà competere seriamente
DIDAC15 Gennaio 2012, 13:12 #24
Ma gli omap4 della Texas Ins. ci sono in commercio in qualche dispositivo?
shodan15 Gennaio 2012, 13:22 #25
Originariamente inviato da: lonewo|_f
a9 a 45 nanometri, medfield a 32.

a 32 nm fai un a15 che consuma come un A9, con il 50% di prestazioni in più in integer e 7 volte le prestazioni in FP


Intel è non solo un nodo di fabbricazione avanti a tutta l'industria, ma fabbrica con tecnologia più avanzata rispetto a quanto fatto da TSMC. Basti pensare all'impego di transistors HKMG già dalla produzione a 45nm, mentre TSMC li userà solo in quella a 28nm.

Questo è qualcosa da considerare, è inutile girarci sopra. E non dimenticate che fin'ora Intel con Atom ha sostanzialmente scherzato, producendo un chip con pochissima logica custom e facilmente sintetizzabile.

Le prestazioni dell'A15 sono tutte da dimostrare, e avere un'FPU 7 volte più veloce significa poco se si considera che quella attuale è davvero molto lenta. Ovviamente non sto dicendo che l'A15 non abbia possibilità; anzi, spero si dimostri un chip molto veloce, superiore all'Atom. Ma fin quando non ne vedremo le prime implementazioni, sarà impossibile fare previsioni accurate.

Ciao.
shodan15 Gennaio 2012, 13:26 #26
Originariamente inviato da: pabloski
è bello fare i bench come fanno loro, eliminando i casi reali

invece un arm a 500 mhz se la giocava con un atom a 1,6 ghz e questo grazie ai vari chip acceleratori dell'arm

è chiaro che se si testa solo la cpu nuda e cruda sembra che arm perda

alla fine l'atom un chip di decodifica h264 non ce l'ha, arm si e nei casi pratici vince arm

poi se intel riuscirà a fare altrettanto, infilando chip acceleratori nel die della cpu allora potrà competere seriamente


Scusami... ti rifaccio la domanda: hai letto l'articolo di Anand che ho postato? A9 e Atom sono confrontati nel workload più reale che si potrebbe pensare: la navigazione web.

Anche l'articolo di Phoronix, sopra postato, mostra un numero di casi reali in cui Atom è superiore, in altri inferiore.

E gli acceleratori esterni al core cosa hanno a che fare con il discorso CISC vs RISC? Quelle sono IP acquistabili anche da Intel, che tra l'altro lo ha già fatto (Medfield monta un PowerVR 540).

Ripeto: hai letto i link che ho postato?

Ciao.
shodan15 Gennaio 2012, 13:27 #27
Originariamente inviato da: serbring
molto interessante, mi piacerebbe capirne di più, hai qualche link da segnalarmi per avere le basi sull'argomento?


Bhe dipende da cosa ti interessa nello specifico.

Diciamo che Anandtech e Realwoldtech sono due siti molto interessanti, il primo più di "divulgazione" mentre il secondo di carattere più tecnico.

Anche la pagina di Wikipedia può essere un buon punto di partenza, soprattutto andando a leggere i riferimenti a piè pagina.

Ciao.
lonewo|_f15 Gennaio 2012, 13:36 #28
Originariamente inviato da: DIDAC
Ma gli omap4 della Texas Ins. ci sono in commercio in qualche dispositivo?


droid razr, atrix 2, droid 3, galaxy nexus

http://en.wikipedia.org/wiki/OMAP#OMAP_4
altri qua
MaxArt16 Gennaio 2012, 00:44 #29
Relativamente a questa notizia, mi ha sorpreso il reference phone che Intel ha presentato a questo CES. Hanno dichiarato 14 giorni di autonomia in standby, 6 ore di riproduzione video a 1080p e 8 ore di conversazione in 3G, condito da Android 4.01. Sono giusto numeri iniziali, ma si comincia a prospettare un futuro interessante.

Originariamente inviato da: marcop1973
io sinceramente tifo per ARM per i seguenti motivi:

1 - ARM è una architettura nuova, efficiente e con molti margini di crescita, mentre la x86 è una
ISA oramai vecchia di 30 anni
E ARM di 28... Lasciamo perdere la questione dell'età, ché non ci porta da nessuna parte. Altrimenti i Cell di IBM avrebbero avuto successo.

2 - La x86 ha fatto fortuna soprattutto grazie alla sua commercialità ed al monopolio che INTEL
già aveva sul desktop.Questo gli ha permesso di fare prezzi più bassi e di diffondersi anche
nei server e SUPERCOMPUTER a scapito di altre piattaforme molte delle quali, a mio giudizio,
tecnicamente migliori. E ciò secondo me è stato a lungo andare un danno per la tecnologia,
soprattutto in termini di consumi energetici.
La supremazia degli x86 è NATA con i prezzi bassi, non solo a livello di produzione del processore, ma anche di tutta la piattaforma.
In più erano processori che facevano tutto quel serviva ad un comune utente, ed ecco il successo ed il dominio che si mantiene dagli anni '80.
Nei server, mainframe e supercomputer si sono invece usati svariati tipi di processori, dagli Itanium agli SPARC, dai PowerPC agli x86, ma a dire il vero solo in tempi recenti si sono affermati un po' di più gli x86, e solo perché i consumi e l'efficienza di performance sono diventati un parametro importante per la progettazione di sistemi. E gli x86 erano parecchio avanti e molto economici, tanto da rendere ingiustificabile l'acquisto di Itanium. Con i multi-core erano diventati anche scalabili e pure in maniera semplice.

3 - Spezzare il monopolio di INTEL e avere una maggiore concorrenza sul mercato non può che
essere un fatto positivo per un più veloce sviluppo tecnologico. Ricordo che ARM progetta
solo i singoli core dando poi in licenza la tecnologia con le relative specifiche (numero
max di core in una CPU, max freq. di clock ec..), mentre i produttori sono tanti. insomma, è
un modello di buisiness secondo me più libero e garantista rispetto quello di INTEL.
La miglior concorrenza nel campo delle CPU l'ha data AMD tra la fine degli anni '90 e l'inizio degli anni 2000.
L'arrivo nei dispositivi mobile è solo la naturale evoluzione di una lunga strada che Intel iniziò coi Pentium M Banias.

Ma poi non ti seguo: se non ti piacciono i monopoli, perché non te la prendi anche con ARM e col suo monopolio delle CPU mobile?

Ribadisco che queste sono solo mie opinioni personali, chiunque e libero di non condividerle...
Il fatto è che non c'è alcun bisogno di un "tifo": se Intel ha le carte in regola per sovvertire il dominio di ARM, sarà stato a ben ragione. Per fortuna è anche passato il tempo delle pratiche sporche di Intel coi produttori di hardware.

Non mi preoccuperei per ARM: si terrà la sua nicchia in ogni caso da cui riuscirà a risorgere quando il mercato comincerà a stagnare. Un po' come ha già fatto in passato.

Originariamente inviato da: pabloski
è bello fare i bench come fanno loro, eliminando i casi reali

invece un arm a 500 mhz se la giocava con un atom a 1,6 ghz e questo grazie ai vari chip acceleratori dell'arm
A dire il vero vedo i test di SunSpider e Browsermark, che forse non sono parametri di riferimento assoluto, ma di certo sono un caso molto più reale di un test come potrebbe essere SPECint.
Mi ricordo il test cui ti riferisci. Beh, direi che è ormai acqua passata. Quell'Atom era un N270, un processore preso in prestito direttamente dai netbook, per nulla pensato all'uso mobile.
gnappoman16 Gennaio 2012, 01:59 #30
Originariamente inviato da: MaxArt
Intel con Android 4.01


non riesco a capire che senso abbia...
Android è un SO paccoso che va bene per i telefonini ARM, se hai la retrocompatibilità del codice fino all'8088, e hai avuto successo proprio per questo, cara intel, ma mettimici winzoz!
Che poi ora con android per x86 e win 8 per arm si farà una gran confusione...

Uno vuole che la stessa applicazione vada sullo stesso sistema operativo, e invece no, magari le più diffuse verranno buildate per entrambi i sistemi, ma sarà sicuramente un bel caos.....

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^