View Full Version : Intel Core M Skylake in arrivo per competere con i 6,1mm di iPad Air 2
Redazione di Hardware Upg
12-02-2015, 08:43
Link alla notizia: http://www.hwupgrade.it/news/cpu/intel-core-m-skylake-in-arrivo-per-competere-con-i-6-1mm-di-ipad-air-2_56022.html
Il CEO di Intel, Brian Krzanich, ha confermato che i nuovi processori Intel Core M con architettura Skylake arriveranno nella seconda metà dell'anno. Permetteranno di realizzare tablet Windows sottili come i modelli con piattaforme mobile
Click sul link per visualizzare la notizia.
Diminuiscono lo spessore e aumentano il throttling?
La Paura
12-02-2015, 09:21
Bhe certo è una vergogna che nel 2015 non riesci a fare un tablet da 6.1 mm di spessore!
Cioè fossi in INTEL mi andrei a nascondere perché 7.2 mm sono uno schifo. Non sia mai che in 7.2 ci infili un batteria più capiente.
Quando faranno un tablet dello spessore di un foglio di carta con batteria da 1 mAh all'ora lo comprerò a qualunque prezzo.:muro: :muro:
Stupidi IDOTI MALEDETTI!!!
Bhe certo è una vergogna che nel 2015 non riesci a fare un tablet da 6.1 mm di spessore!
Cioè fossi in INTEL mi andrei a nascondere perché 7.2 mm sono uno schifo. Non sia mai che in 7.2 ci infili un batteria più capiente.
Quando faranno un tablet dello spessore di un foglio di carta con batteria da 1 mAh all'ora lo comprerò a qualunque prezzo.:muro: :muro:
Stupidi IDOTI MALEDETTI!!!
A quanto pare, lo spessore di un dispositivo è un parametro importante per molti clienti, e loro si adeguano.
La Paura
12-02-2015, 09:39
A quanto pare, lo spessore di un dispositivo è un parametro importante per molti clienti, e loro si adeguano.
Infatti STUPIDI IDIOTI MALEDETTI era riferito a tutti quelli che badano allo spessore e per un millimetro in meno si fanno prendere da isteria.
Comunque non è del tutto vero che tutti pensano allo spessore....secondo me molta gente anche in questo forum preferirebbe batterie più grandi e conseguente autonomia maggiorata a spessori da foglio di carta.
-=W1S3=-
12-02-2015, 09:46
Infatti, non tutti pensano allo spessore... molti pensano anche alla lunghezza, ma soprattutto alla durata!
Infatti, non tutti pensano allo spessore... molti pensano anche alla lunghezza, ma soprattutto alla durata!
:fagiano:
tecnologico
12-02-2015, 10:01
io non ho problemi di spessore, (sotto il cm), ma mi girano le palle per gli spessori delle cornici, al diavolo 3 cm per lato di nulla. nelle dimensioni di un tab da 10, in particolare negli asus, ci infili un monitor da 13 per quanto sono grosse le cornici. poi spessori un cavolo. il 90%dei tab ha cover che triplicano il loro spessore originale
Infatti, non tutti pensano allo spessore... molti pensano anche alla lunghezza, ma soprattutto alla durata!
Aggiungerei anche il modo in cui viene usato :fagiano:
Marko#88
12-02-2015, 10:59
Infatti STUPIDI IDIOTI MALEDETTI era riferito a tutti quelli che badano allo spessore e per un millimetro in meno si fanno prendere da isteria.
Comunque non è del tutto vero che tutti pensano allo spessore....secondo me molta gente anche in questo forum preferirebbe batterie più grandi e conseguente autonomia maggiorata a spessori da foglio di carta.
La roba spessa non fa figo. Tutti e dico tutti i miei amici Appleiani, all'uscita di iPhone 6 ed iPad Air 2, mi hanno fatto notare quanto fossero sottili. Ma fanno lo stesso anche gli Androidiani con gli Android sottili.
Generalmente li guardo con compassione visto che a me non me ne frega nulla e non sono vittima di ste troiate da marketing. Il problema è che molti lo sono e le aziende puntano su di loro. :rolleyes:
CrapaDiLegno
12-02-2015, 11:53
Dai forza Intel, non ti scoraggiare, forse con i 10nm riesci a eguagliare la concorrenza... sempre che continui a "regalare" i tuoi processori, perché se si dovesse pagarli per quello che veramente costano :rolleyes:
Dai forza Intel, non ti scoraggiare, forse con i 10nm riesci a eguagliare la concorrenza... sempre che continui a "regalare" i tuoi processori, perché se si dovesse pagarli per quello che veramente costano :rolleyes:
Con tutto il rispetto, ma secondo me a te fegato ne è rimasto poco, ormai. Intel ti ha insultato la sorella? :D
Dai forza Intel, non ti scoraggiare, forse con i 10nm riesci a eguagliare la concorrenza... sempre che continui a "regalare" i tuoi processori, perché se si dovesse pagarli per quello che veramente costano :rolleyes:
Ma che problemi hai? :asd:
CrapaDiLegno
12-02-2015, 12:40
Con tutto il rispetto, ma secondo me a te fegato ne è rimasto poco, ormai. Intel ti ha insultato la sorella? :D
No, ma l'arroganza di questa azienda che arriva anni dopo e sostiene una causa persa solo con la forza del suo incredibile utile mi fa ricordare altri tempi in cui il progresso era dato da chi aveva l'idea migliore, non da chi poteva cancellare quella degli altri.
Crystal1988
12-02-2015, 12:47
Dai forza Intel, non ti scoraggiare, forse con i 10nm riesci a eguagliare la concorrenza... sempre che continui a "regalare" i tuoi processori, perché se si dovesse pagarli per quello che veramente costano :rolleyes:
Avevo trovato articolo scientifico doveva anni fa avevano preso un ARM A8 e A9, un Atom ed un i7 Sandy Bridge (non so quale) e avevano usato varie suite compilate ad hoc sotto linux fra cui Spec2006, usando in sostanza una serie di becnhmark da server e workstation. Quello che veniva fuori è che la prestazioni per watt erano simili, nonostante l'architettura ARM sia studiata per andare a basse potenze mentre ai tempi quelle di Intel facevano un po' pietà per le basse potenze (cosa che invece adesso è ben diversa) e il problema fondamentale per quella ARM è che se avessero dovuto aumentare di molto clock e potenza, sarebbe risultata una forte perdita d'efficienza e che l'unica alternativa era quella di utlizzare una serie di core aggiuntivi, che però sarebbero di fatto costati un occhio della testa perché insomma, silicio e litografia costano.
Contando che negli ultimi Intel dal punto di vista dei consumi, stati di riduzione, controlli di tensione ha fatto passo da gigante mentre ARM è cresciuta costantemente ma senza picchi, io credo che Intel, in realtà, sia ancora in una posizione dominante in ambito PC, server e workstation, forse più di prima. Ovviamente, ciò dipende anche dai programmatori e sviluppatori...
No, ma l'arroganza di questa azienda che arriva anni dopo e sostiene una causa persa solo con la forza del suo incredibile utile mi fa ricordare altri tempi in cui il progresso era dato da chi aveva l'idea migliore, non da chi poteva cancellare quella degli altri.
Il progresso è dato da chi ha più miliardi da investire (e sa farlo). Se poi credi che i SoC ARM vengano progettati e prodotti per virtù divina, o per il benessere dell'umanità, forse è il caso di aprire gli occhi e svegliarsi.
dev'essere un bell'aggeggio!
mi piacerebbe provarlo!
Spero non lo castreranno per via della dissipazione del calore...
CrapaDiLegno
12-02-2015, 15:03
Il progresso è dato da chi ha più miliardi da investire (e sa farlo). Se poi credi che i SoC ARM vengano progettati e prodotti per virtù divina, o per il benessere dell'umanità, forse è il caso di aprire gli occhi e svegliarsi.
Vorrei corregere in "il progresso lo fa chi sa farlo, non chi ha miliardi per imporre una soluzione che non è all'altezza delle altre".
Che ARM sia fatta per volontà divina non l'ho mai pensato. E' certo che con una frazione delle risorse di Intel ha trovato moltissime ottime idee ed è stata in grado di attuarle in un mercato fino a ieri "protetto" (o poco interessante). Penso invece che negli ultimi 30 anni nei campi dove Intel ha operato sono morte moltissime buone idee che non hanno avuto la forza di reggere il rullo compressore dei miliardi di Intel.
Guardo allo stato del progresso nel 2010, vedo come eravamo messi, oggi guardo lo stato del progresso di Intel fatto in questi anni nei vari campi (dove ha concorrenza e dove invece no), e mi chiedo cosa sarebbe l'oggi se non avesse triturato tutti ma avesse avuto un competitor serio anche in campo desktop.
Probabilmente non avremmo ARM a morsicarle la punta delle dita dei piedi, ma saremmo qualche lunghezza più avanti comunque con qualcun altro a morderle se non il collo, almeno le parti basse.
Una mia idea, magari sbagliata. Non lo sapremo mai. Ma mi resta l'enorme dubbio che qualcosa non ha funzionato come avrebbe potuto. E vedendo lo sviluppo avuto in quest o4-5 anni, il dubbio diventa sempre più possibilità.
Vorrei corregere in "il progresso lo fa chi sa farlo, non chi ha miliardi per imporre una soluzione che non è all'altezza delle altre".
Che ARM sia fatta per volontà divina non l'ho mai pensato. E' certo che con una frazione delle risorse di Intel ha trovato moltissime ottime idee ed è stata in grado di attuarle in un mercato fino a ieri "protetto" (o poco interessante). Penso invece che negli ultimi 30 anni nei campi dove Intel ha operato sono morte moltissime buone idee che non hanno avuto la forza di reggere il rullo compressore dei miliardi di Intel.
Guardo allo stato del progresso nel 2010, vedo come eravamo messi, oggi guardo lo stato del progresso di Intel fatto in questi anni nei vari campi (dove ha concorrenza e dove invece no), e mi chiedo cosa sarebbe l'oggi se non avesse triturato tutti ma avesse avuto un competitor serio anche in campo desktop.
Probabilmente non avremmo ARM a morsicarle la punta delle dita dei piedi, ma saremmo qualche lunghezza più avanti comunque con qualcun altro a morderle se non il collo, almeno le parti basse.
Una mia idea, magari sbagliata. Non lo sapremo mai. Ma mi resta l'enorme dubbio che qualcosa non ha funzionato come avrebbe potuto. E vedendo lo sviluppo avuto in quest o4-5 anni, il dubbio diventa sempre più possibilità.
La tua opinione è rispettabilissima, ma vale per qualsiasi soggetto al posto di Intel. Se non hai una forte concorrenza, è ovvio che vai avanti a colpi di "piccoli upgrade"; da consumatore non mi piace, però mi chiedo: io, al posto loro, farei diversamente? E tu?
Comunque queste sono le regole del "libero" mercato, e del capitalismo REALE: si punta più ad azzoppare l'avversario, piuttosto che a superarlo "lealmente"; quindi, o si decide di attaccare l'intero sistema, alla base, oppure si accettano le cose come stanno.
Comunque, ARM è un'architettura pensata per consumi ridotti, e infatti si è diffusa sui sistemi embedded; Intel è arrivata in ritardo, ed ha deciso di adattare un progetto nato in un ambito in cui l'assorbimento di potenza non era (è) eccessivamente rilevante, ad uno in cui, invece, è fondamentale.
Tra l'altro, avevo letto che, salendo con frequenze e "forza bruta", i consumi dei SoC ARM diventano paragonabili agli x86; se questo è vero, che c'è di innovativo?
Vorrei corregere in "il progresso lo fa chi sa farlo, non chi ha miliardi per imporre una soluzione che non è all'altezza delle altre".
Che ARM sia fatta per volontà divina non l'ho mai pensato. E' certo che con una frazione delle risorse di Intel ha trovato moltissime ottime idee ed è stata in grado di attuarle in un mercato fino a ieri "protetto" (o poco interessante). Penso invece che negli ultimi 30 anni nei campi dove Intel ha operato sono morte moltissime buone idee che non hanno avuto la forza di reggere il rullo compressore dei miliardi di Intel.
Guardo allo stato del progresso nel 2010, vedo come eravamo messi, oggi guardo lo stato del progresso di Intel fatto in questi anni nei vari campi (dove ha concorrenza e dove invece no), e mi chiedo cosa sarebbe l'oggi se non avesse triturato tutti ma avesse avuto un competitor serio anche in campo desktop.
Probabilmente non avremmo ARM a morsicarle la punta delle dita dei piedi, ma saremmo qualche lunghezza più avanti comunque con qualcun altro a morderle se non il collo, almeno le parti basse.
Una mia idea, magari sbagliata. Non lo sapremo mai. Ma mi resta l'enorme dubbio che qualcosa non ha funzionato come avrebbe potuto. E vedendo lo sviluppo avuto in quest o4-5 anni, il dubbio diventa sempre più possibilità.
Un appunto su ARM e il suo rapporto con Intel e i processori X86/X64:
ARM non è nata nel 2010, è nata nel 1990, e ha sempre prodotto processori RISC (Reduced instruction set computer).
I processori RISC possiamo vederli come una versione semplificata dei processori classici, hanno un'architettura più semplice e mancano alcuni set di istruzioni (molti o pochi a seconda delle famiglie).
Ovviamente, essendo più semplici e dovendo fare operazioni meno complesse, consumano (e costano) meno: altrimenti non avrebbero senso.
Quindi non è proprio giusta l'immagine di ARM come azienda innovatrice: ha semplicemente preso un'architettura semplice e l'ha fatta crescere negli anni. Processori ARM (e altri RISC) sono usati da sempre nei sistemi embedded.
Ora, con l'avvento degli smartphone, ARM e Intel hanno iniziato a scontrarsi perchè "dal basso" ci sono tablet sempre più vicini come prestazioni ai notebook, e "dall'alto" perchè Intel (e Microsoft) hanno capito che in questa fascia di mercato c'è da mangiare parecchio...
Quindi, fino a qualche anno fa, Intel e ARM navigavano ugnuno nel proprio mercato (Intel dei processori X86, e ARM del mondo embedded), ora si è invece creato un mercato che è a metà strada tra i due.
ARM è riuscita ad arrivarci prima, ma non vedo perchè Intel debba essere accusata di "essere la cattiva" solo perchè vuole entrarci anche lei.
cdimauro
12-02-2015, 17:48
Con tutto il rispetto, ma secondo me a te fegato ne è rimasto poco, ormai. Intel ti ha insultato la sorella? :D
Ma che problemi hai? :asd:
S'è costruito un nemico e deve attaccarlo a ogni occasione. Cosa gliene viene da ciò? Niente: puro fanatismo.
No, ma l'arroganza di questa azienda
Di quale arroganza blateri?
che arriva anni dopo
Capita. Per caso è un crimine?
e sostiene una causa persa
Perché lo sarebbe?
solo con la forza del suo incredibile utile
Falso. I suoi prodotti hanno ottime prestazioni e consumi comparabili alla concorrenza.
mi fa ricordare altri tempi in cui il progresso era dato da chi aveva l'idea migliore,
Definisci cosa intendi per "progresso" e idea "migliore", altrimenti è impossibile seguirti e non ha alcun valore quello che scrivi.
non da chi poteva cancellare quella degli altri.
Non conosco multinazionali che non vorrebbero essere le uniche a operare sul mercato.
Avevo trovato articolo scientifico doveva anni fa avevano preso un ARM A8 e A9, un Atom ed un i7 Sandy Bridge (non so quale) e avevano usato varie suite compilate ad hoc sotto linux fra cui Spec2006, usando in sostanza una serie di becnhmark da server e workstation. Quello che veniva fuori è che la prestazioni per watt erano simili, nonostante l'architettura ARM sia studiata per andare a basse potenze mentre ai tempi quelle di Intel facevano un po' pietà per le basse potenze (cosa che invece adesso è ben diversa)
In realtà l'architettura ARM non è mai stata pensata per operare a basse potenze, ma per le elevate prestazioni. Purtroppo questo è un mito che circola da parecchio.
All'epoca non era il consumo a essere nei pensieri dei produttori di processori (per lo meno in quelli "mainstream", e non altamente specializzati).
ARM ha tirato fuori un RISC che era abbastanza complesso a livello di ISA per i canoni di allora (mi riferisco ai processori RISC), ma veloce grazie ad alcune soluzioni architetturali (pipeline corta, tutte le istruzioni erano condizionate, un insieme di shadow register per gestire più velocemente possibile gli interrupt e le syscall, modalità d'indirizzamento dotate di aggiornamento del registro base).
Il basso consumo è dovuto al fatto che, com'è normale per i RISC, la decodifica delle istruzioni risulta molto semplice (anche se ci sono RISC come MIPS e Alpha che lo sono decisamente di più). Si tratta, dunque, di una logica conseguenza.
e il problema fondamentale per quella ARM è che se avessero dovuto aumentare di molto clock e potenza, sarebbe risultata una forte perdita d'efficienza e che l'unica alternativa era quella di utlizzare una serie di core aggiuntivi, che però sarebbero di fatto costati un occhio della testa perché insomma, silicio e litografia costano.
E' una cosa normale che capita con tutti i processori.
Contando che negli ultimi Intel dal punto di vista dei consumi, stati di riduzione, controlli di tensione ha fatto passo da gigante mentre ARM è cresciuta costantemente ma senza picchi, io credo che Intel, in realtà, sia ancora in una posizione dominante in ambito PC, server e workstation, forse più di prima. Ovviamente, ciò dipende anche dai programmatori e sviluppatori...
E dai compilatori.
Il progresso è dato da chi ha più miliardi da investire (e sa farlo). Se poi credi che i SoC ARM vengano progettati e prodotti per virtù divina, o per il benessere dell'umanità, forse è il caso di aprire gli occhi e svegliarsi.
*
Vorrei corregere in "il progresso lo fa chi sa farlo, non chi ha miliardi per imporre una soluzione che non è all'altezza delle altre".
Perché non sarebbe all'altezza? Esponi pure le motivazioni.
Che ARM sia fatta per volontà divina non l'ho mai pensato. E' certo che con una frazione delle risorse di Intel ha trovato moltissime ottime idee ed è stata in grado di attuarle in un mercato fino a ieri "protetto" (o poco interessante). Penso invece che negli ultimi 30 anni nei campi dove Intel ha operato sono morte moltissime buone idee che non hanno avuto la forza di reggere il rullo compressore dei miliardi di Intel.
Non sono stati i soldi, ma il mercato che ha deciso così. Intel ha tirato fuori 80960, 80860, e Itanium, ma non è mai riuscita a rimpiazzare in alcun modo la sua IA-32. Storia alla mano.
Parallelamente, i continui progressi nell'implementazione di IA-32 l'hanno portata a essere un'architettura in grado di competere e persino superare le prestazioni di quelli che volevano seppellirla (i RISC). Dunque, alla fine, perché avrebbe dovuto affossare la sua gallina dalle uova d'oro? Non aveva e non ha senso.
Guardo allo stato del progresso nel 2010, vedo come eravamo messi,
Com'eravamo messi? Cosa intendi per progresso? Altrimenti è impossibile capire a cosa ti riferisci.
oggi guardo lo stato del progresso di Intel fatto in questi anni nei vari campi (dove ha concorrenza e dove invece no), e mi chiedo cosa sarebbe l'oggi se non avesse triturato tutti ma avesse avuto un competitor serio anche in campo desktop.
Premesso che non è coi se e coi ma che si fa la storia, Intel ha sempre avuto concorrenza da parte di altri produttori di processori, che non sono riusciti a farle le scarpe.
L'ultima è stata quella dei PowerPC, del consorzio Apple + IBM + Motorola (quindi le risorse non mancavano di certo), che non era certo un'architettura da buttare (molto più votata alle prestazioni rispetto ad ARM).
Dunque di che stiamo parlando?
Probabilmente non avremmo ARM a morsicarle la punta delle dita dei piedi, ma saremmo qualche lunghezza più avanti
Definisci cosa intendi con "lunghezza". Continui a parlare genericamente senza entrare mai nello specifico, per cui senza dettagli con informazioni da valutare rimangono discorsi privi di significato e valore.
comunque con qualcun altro a morderle se non il collo, almeno le parti basse.
Una mia idea, magari sbagliata. Non lo sapremo mai. Ma mi resta l'enorme dubbio che qualcosa non ha funzionato come avrebbe potuto. E vedendo lo sviluppo avuto in quest o4-5 anni, il dubbio diventa sempre più possibilità.
Io, invece, non ho dubbi che tu non conosca le innovazioni che ha portato Intel proprio in questi ultimi anni. O le conosci, ma fai finta di non saperlo.
Credo, comunque, che sia molto più interessante vedere snocciolate tutte le innovazioni che sono state portate dai concorrenti di Intel, perché a questo punto immagino che avrai una lista chilometrica da riportare. Così facciamo finalmente un bel confronto.
La tua opinione è rispettabilissima, ma vale per qualsiasi soggetto al posto di Intel. Se non hai una forte concorrenza, è ovvio che vai avanti a colpi di "piccoli upgrade"; da consumatore non mi piace, però mi chiedo: io, al posto loro, farei diversamente? E tu?
Comunque queste sono le regole del "libero" mercato, e del capitalismo REALE: si punta più ad azzoppare l'avversario, piuttosto che a superarlo "lealmente"; quindi, o si decide di attaccare l'intero sistema, alla base, oppure si accettano le cose come stanno.
*
Comunque, ARM è un'architettura pensata per consumi ridotti,
Su questo vedi sopra: non è così.
e infatti si è diffusa sui sistemi embedded;
No, era stata pensata per le prestazioni e per concorrere con Intel (e Motorola, con la sua famiglia 68000, che all'epoca si contendeva il mercato con Intel) nel mercato "desktop".
ARM non si è affermata per due motivi. Il primo è che è arrivata troppo in ritardo in un mercato già saturo anche se diviso da più player (IBM/Intel coi PC, Commodore/Motorola con Amiga, Atari/Motorola, Apple/Motorola), per cui ha avuto parecchie difficoltà a inserirsi. E qui quanto meno si dovrebbero rizzare le orecchie parlando di ritardi...
La seconda, e ben più importante, è che con l'introduzione dell'80486 da parte di Intel, e a ruota del 68040 da parte di Motorola, i tanto blasonati RISC (ARM incluso) hanno ricevuto una bella mazzata, visto che questi processori presentavano notevoli prestazioni (15 MIPS per il primo e addirittura 20 per il secondo; entrambi con clock a 25Mhz). Tant'è che furono impiegati in diversi server e workstation, all'epoca di dominio incontrastato dei RISC.
Intel è arrivata in ritardo, ed ha deciso di adattare un progetto nato in un ambito in cui l'assorbimento di potenza non era (è) eccessivamente rilevante, ad uno in cui, invece, è fondamentale.
Su questo vedi ancora sopra.
Tra l'altro, avevo letto che, salendo con frequenze e "forza bruta", i consumi dei SoC ARM diventano paragonabili agli x86; se questo è vero, che c'è di innovativo?
E' normale perché:
- ormai abbiamo chip con diverse centinaia di milioni fino a miliardi di transistor;
- i core dei processori rappresentano una piccola parte dell'intero chip.
Aggiungo che Intel con Penryn ha tirato fuori dal cilindro una bellissima trovata, l'LSD (niente allucinazioni! :D Loop Stream Detection (http://www.anandtech.com/show/2594/4)) che le consente di spegnere completamente alcune unità quando esegue dei loop di una certa dimensione, mandando direttamente al reorder-buffer (con Nehalem, che ha presentato un LSD migliorato) le istruzioni da eseguire.
Perché è così importante? Perché, come ogni buon programmatore dovrebbe sapere, in quest'ambito vale la massima: il 90% del tempo viene impiegato dal processore a eseguire il 10% del codice. E in genere questo 10% di codice computazionalmente intensivo è rappresentato da loop, usualmente abbastanza piccoli.
Ricapitolando, con LSD Intel ha ridotto notevolmente gli stadi della pipeline interessati all'esecuzione delle istruzioni, saltando a pié pari: unità di branch prediction, unità di fetch, e decoder. Il tutto ha prodotto, oltre a un netto miglioramento delle prestazioni (rispetto a soluzioni senza LSD; RISC inclusi), una consistente riduzione consumi dovuto al fatto che queste unità risultano spente.
Questa non è forse una grande innovazione?
Un appunto su ARM e il suo rapporto con Intel e i processori X86/X64:
ARM non è nata nel 2010, è nata nel 1990, e ha sempre prodotto processori RISC (Reduced instruction set computer).
Come azienda autonoma è nata nel 1990, ma l'architettura risale all'85.
I processori RISC possiamo vederli come una versione semplificata dei processori classici, hanno un'architettura più semplice e mancano alcuni set di istruzioni (molti o pochi a seconda delle famiglie).
Ovviamente, essendo più semplici e dovendo fare operazioni meno complesse, consumano (e costano) meno: altrimenti non avrebbero senso.
Questo succedeva agli albori, quando sono nati i RISC. Ma da diverso tempo anche i RISC integrano centinaia di istruzioni, e anche complesse. Alcune istruzioni sono talmente complesse che possono far uso di microcodice (eresia! x86-docet :D) per la loro esecuzione oppure richiedono traducono queste istruzioni in una lista di istruzioni più semplici che vengono eseguite da un'unità d'esecuzione "ancora più RISC" (doppia eresia! x86-docet!!! :D).
Quindi non è proprio giusta l'immagine di ARM come azienda innovatrice: ha semplicemente preso un'architettura semplice e l'ha fatta crescere negli anni.
ARM fu un'architettura progettata da zero, non partendo da un'altra. In verità gli ingegneri si ispirarono molto al 6502, che era un processore CISC (molto CISC!), ma particolarmente efficiente. Quello che hanno usato nel Commodore 64, per intenderci, ma in tantissimi altri computer o dispositivi (anche parecchi giochi arcade).
Processori ARM (e altri RISC) sono usati da sempre nei sistemi embedded.
ARM è stata costretta a ripiegare in questo settore perché non ha avuto successo in ambito "desktop", per le motivazioni che ho espresso sopra.
Ora, con l'avvento degli smartphone, ARM e Intel hanno iniziato a scontrarsi perchè "dal basso" ci sono tablet sempre più vicini come prestazioni ai notebook, e "dall'alto" perchè Intel (e Microsoft) hanno capito che in questa fascia di mercato c'è da mangiare parecchio...
Quindi, fino a qualche anno fa, Intel e ARM navigavano ugnuno nel proprio mercato (Intel dei processori X86, e ARM del mondo embedded), ora si è invece creato un mercato che è a metà strada tra i due.
ARM è riuscita ad arrivarci prima, ma non vedo perchè Intel debba essere accusata di "essere la cattiva" solo perchè vuole entrarci anche lei.
Perché è brutta e cattiva? :) :D
spiegazione
non ti quoto tutto perchè non avrebbe senso, devo solo dirti che mi hai fatto incuriosire e cercherò di conoscere la storia di ARM più a fondo.
Fino ad ora, la mia conoscenza "programmativa" dei RISC era associata a PIC e ARM, mentre la mia conoscenza storica veniva da un po' di curiosità passata, ma è bene che me la rinfreschi.
Che ormai gli ARM fossero molto "complessi" per essere definiti a tutti gli effetti RISC mi era sorto il dubbio... ma se a un RISC aggiungi istruzioni e lo fai crescere come complessità... la domanda sorge spontanea: quando diventa CISC?
cdimauro
12-02-2015, 19:45
non ti quoto tutto perchè non avrebbe senso, devo solo dirti che mi hai fatto incuriosire e cercherò di conoscere la storia di ARM più a fondo.
Fino ad ora, la mia conoscenza "programmativa" dei RISC era associata a PIC e ARM, mentre la mia conoscenza storica veniva da un po' di curiosità passata, ma è bene che me la rinfreschi.
Io ho avuto la fortuna di vivere in pieno quell'epoca, per cui ho potuto mettere le mani su quei computer, e spolparmi le riviste di settore.
Fortunatamente queste ultime si trovano online. In particolare LA rivista d'informatica per eccellenza in Italia è stata MC MicroComputer (http://www.mcmicrocomputer.org/), che ti consiglio di spulciare in generale perché è un'autentica miniera d'informazioni.
Comunque a posteriori è difficile comprendere l'entusiasmo e in che misura si vivevano le continue innovazioni che ogni mese apparivano fra quelle pagine. Lo scorrere del tempo consentiva di assaporare, assorbire, e inquadrare bene storicamente ciò che accadeva.
Questo è anche (non solo) il motivo per cui mi viene abbastanza semplice parlare a ruota libera di questi argomenti, dandogli il giusto peso, valore, e soprattutto contesto di riferimento.
Che ormai gli ARM fossero molto "complessi" per essere definiti a tutti gli effetti RISC mi era sorto il dubbio... ma se a un RISC aggiungi istruzioni e lo fai crescere come complessità... la domanda sorge spontanea: quando diventa CISC?
Domanda da un milione di dollari (sono serissimo!), per la quale esperti diversi ti daranno risposte diverse, tutte con solide argomentazioni. Io posso soltanto esporti la mia personalissima visione delle cose.
E' chiaro che da quando sono stati formulati i concetti di RISC e CISC, che derivano dalla definizione/nascita del primo RISC, molte cose sono cambiate e le carte si sono un po' mischiate, con un "passaggio" di concetti e/o tecnologie da ambo le parti.
Oggi la R di RISC non ha alcun senso, proprio a motivo del consistente numero di istruzioni che anche questi processori integrano. Di set "ridotto", dunque, non è rimasto che il mero ricordo e l'etichetta appiccicata su questa macrofamiglia di architetture.
Lo stesso vale per la C di CISC: da tempo le istruzioni che sono state via via aggiunte sono ben più semplici di quelle più complicate che sono state inizialmente inserite in processori di questa macrofamiglia.
Dunque possiamo dire che la tendenza è stata quella di un avvicinamento fra le due macrofamiglia: aggiunte di (tante) nuove istruzioni sempre più complesse per i RISC, e aggiunta di istruzioni molto più semplici per i CISC.
Altro elemento distintivo è stato quello del numero di registri: molti per i RISC, pochi per i CISC. Non sto a spiegare le motivazioni di queste scelte, ma possiamo dire che i CISC hanno aumentato il numero di registri (x64 ne ha 16 general purpose; uno rimane dedicato allo stack, comunque), dunque mettendosi in competizioni coi RISC su questo piano. Viceversa, esistono diversi RISC che non hanno un numero elevato di registri. ARM, prima dell'arrivo dell'ISA a 64-bit, non aveva un gran numero di registri (16, di cui 3 specializzati), ad esempio, ma esistono RISC con ancora meno istruzioni.
Possiamo dire che la differenza a livello abbastanza generale permane, anche se non è più così marcata come una volta.
Riguardo alle modalità d'indirizzamento della memoria, i CISC in genere ne hanno offerte diverse, e in alcuni casi anche molto complicate. Viceversa, i RISC sono stati dotati di poche e semplice modalità (perché il motto era: se ti serve qualcosa di più complicato, te la costruisci da solo).
Questa distinzione possiamo dire che si è notevolmente ridotta, perché i RISC più moderni hanno adottato modalità più complicate. Parlo dei PowerPC, ma soprattutto degli ARM, che sfoderano la possibilità di aggiornare il registro base, e quest'ultimo pure l'eventuale indicizzazione con scaling.
Veniamo ai due punti che personalmente ritengo risolutivi per il collocamento di un'architettura in una delle due macrofamiglie: operazioni con operando in memoria e dimensione fissa o variabile dell'opcode delle istruzioni.
Nel primo caso la questione è semplice e schietta: i RISC hanno da sempre relegato gli accessi alla memoria soltanto operazioni di load/store. Mentre i CISC consentono di eseguire operazioni (somme, sottrazioni, and, or, ecc.) in cui almeno uno degli operandi può stare in memoria, e in genere è possibile sfruttare una delle varie modalità d'indirizzamento disponibili allo scopo.
Questo è un criterio sul quale c'è convergenza per discernere fra le due macro-famiglie. Non si discute.
Sulla dimensione fissa o variabile degli opcode, invece no. Diciamo subito che i RISC sono sempre stati caratterizzati dalla dimensione fissa, mentre i CISC sono ben noti per adottare quella variabile (da cui la sempre maggior densità di codice). Da parecchi anni, però, i produttori di processori RISC si sono visti costretti a tirare fuori delle architetture con opcode a dimensione variabile proprio per cercare di risparmiare memoria. Mi riferisco a MIPS16 per MIPS, ma soprattutto a Thumb & Thumb-2 per ARM.
Personalmente rimango della mia idea: se un'ISA ha opcode di dimensione variabile, non può essere considerata RISC, ma CISC. Motivazione semplice oltre che storica: da quando sono nati, l'essere dotati di opcode a dimensione fissa, e dunque con una di gran lunga più semplice e veloce decodifica, è stato un marchio di fabbrica dei RISC, che ancora oggi peraltro viene sbandierata. Viceversa, i CISC sono sempre stati con opcode a lunghezza variabile.
Un ultimo appunto riguarda l'uso o meno di microcodice. I CISC ne hanno sempre fatto uso, mentre i RISC no. Ma le cose sono cambiate, con travasi da ambo le parti: ci sono RISC che usano microcodice per alcune istruzioni, e i CISC moderni che fanno uso di un'unità RISC specializzata per l'esecuzione della stragrande maggioranza.
Poiché si tratta di un elemento microarchitetturale, personalmente lo terrei fuori dai criteri di valutazione.
Penso di aver coperto tutto. Mi sono un po' dilungato, e me ne scuso, ma penso che adesso tu abbia sufficienti informazioni per poter rispondere da solo alle domande che ponevi. ;)
Grazie mille della spiegazione esaustiva!
AleLinuxBSD
10-03-2015, 19:59
Mi auguro che questa nuova piattaforma di Intel consenta prestazioni paragonabili, oppure anche migliori, rispetto agli Arm, senza aumentare i consumi o con costi maggiorati, perché a quel punto, supponendo che disponga di una Gpu non chiusa, pure il sistema Linux potrebbe beneficiarne.
Certo esistono da tempo applicativi Arm in Linux, ma potere usare direttamente quelli disponibili su piattaforma Intel, nonostante i limiti attuali di interazione di questo sistema operativo, risulterebbe ugualmente interessante.
cdimauro
10-03-2015, 20:25
Da parecchi anni Intel rilascia la documentazione i sorgenti delle sue GPU, per cui non è certo questo il problema. Tutt'altro. Infatti le GPU Intel sono in genere supportate da tutti i s.o., anche amatoriali (es: AROS (http://aros-exec.org/modules/newbb/viewtopic.php?post_id=42001) ).
Riguardo a prestazioni e consumi, ne riparliamo quando gli Skylake arriveranno. ;)
AleLinuxBSD
11-03-2015, 07:05
Sfortunatamente, riguardo la Gpu, non è proprio così, in quanto spesso e volentieri si è appoggiata a produttori esterni, propro nei sistemi portatili, con gli inevitabili effetti deleteri che questo ha comportato.
cdimauro
11-03-2015, 19:14
Beh, i portatili non li produce Intel, ma... i produttori. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.