View Full Version : iMac e MacBook con chip ARM impossibili secondo Intel: 'Siamo troppo avanti rispetto al mercato'
Redazione di Hardware Upg
09-02-2015, 16:14
Link alla notizia: http://www.hwupgrade.it/news/apple/imac-e-macbook-con-chip-arm-impossibili-secondo-intel-siamo-troppo-avanti-rispetto-al-mercato_55981.html
Intel cerca di spegnere le indiscrezioni circa sistemi Apple con CPU ARM. La partnership con Apple sembra ancora forte, ma Apple potrebbe essere al lavoro su processori proprietari anche per i sistemi desktop e notebook
Click sul link per visualizzare la notizia.
Ma magari, è oltremodo interessante tutta la faccenda...
diabolikum
09-02-2015, 16:37
Considerando che il settore server è stato eliminato da Apple, che quello Pro sta seguendo a ruota, con questo passaggio eliminerebbe in un solo colpo tutta la divisione computer (che di fatto pesa ormai sempre meno sul fatturato) e potremmo assistere al passaggio Apple Inc.> Apple Phone inc. dopo aver visto in passato il passaggio Apple Computer Inc. > Apple Inc.
non penso Apple abbia spinto sui 64 bit solo per farsi bella nel mercato smartphone. In ogni caso puo' fare pressioni su intel per avere esclusive o prezzi rivisti...
AceGranger
09-02-2015, 16:51
"Sebbene non riescano ancora a contrastare in potenza i processori di Intel, ben presto le architetture di ARM potrebbero consentire performance ottimali anche su sistemi desktop, con un'efficienza decisamente superiore rispetto alle CPU x86 odierne."
contando che quando ARM arrivera ad eguagliare le prestazioni delle CPU odierne, Intel avra CPU nettamente piu performanti, visto che certo non rimarra a dormire; e vedendo i nuovi Atom, in quanto ad efficienza hanno ben poco da invidiare agli arm.
contando che quando ARM arrivera ad eguagliare le prestazioni delle CPU odierne, Intel avra CPU nettamente piu performanti, visto che certo non rimarra a dormire; e vedendo i nuovi Atom, in quanto ad efficienza hanno ben poco da invidiare agli arm.
Intel avrà cpu più performanti solo se riuscirà a stare in testa in termini di tecnologia produttiva e se riuscirà a mantenere la consistenza numerica del suo zoccolo duro (software per x86 non portabile).
Il problema è che sia Apple che Google spingono molto sulla portabilità del loro software (non a caso Apple ha investito forte sullo sviluppo di una toolchain completa basata su LLVM e lo ha integrato in XCode) ed anche Microsoft (con molte più rogne causate dai requisiti di retrocompatibilità e varie scelte sbagliate) sta facendo lo stesso.
Quindi lo "zoccolo duro" degli utenti di cpu Intel rischia di ridursi ulteriormente e se vengono a mancare i soldi per arrivare al processo produttivo successivo prima degli altri viene meno anche il vantaggio in termini di prestazioni visto che il passaggio allo step successivo diventa sempre più complesso e costoso.
CrapaDiLegno
09-02-2015, 17:13
Intel avrà cpu più performanti solo se riuscirà a stare in testa in termini di tecnologia produttiva e se riuscirà a mantenere la consistenza numerica del suo zoccolo duro (software per x86 non portabile).
Il problema è che sia Apple che Google spingono molto sulla portabilità del loro software (non a caso Apple ha investito forte sullo sviluppo di una toolchain completa basata su LLVM e lo ha integrato in XCode) ed anche Microsoft (con molte più rogne causate dai requisiti di retrocompatibilità e varie scelte sbagliate) sta facendo lo stesso.
Quindi lo "zoccolo duro" degli utenti di cpu Intel rischia di ridursi ulteriormente e se vengono a mancare i soldi per arrivare al processo produttivo successivo prima degli altri viene meno anche il vantaggio in termini di prestazioni visto che il passaggio allo step successivo diventa sempre più complesso e costoso.
This.
Hai perfettamente ragione. Intel competerà finchè riuscirà a controbilanciare l'inefficienza della sua architettura con un magigor numero di transistor messi nella stessa area con un PP più avanzato. Ricordando che i chip Intel per area costano molto di più dei SoC ARM fatti con processi produttivi molto meno costosi (vedesi debacle Intel con Atom e i costi connessi per circa 40 milioni di pezzi venduti).
Quando questo non avverrà più, Intel non sarà poi così tanto avanti. E a parte rivolgersi ai professionisti che hanno davvero bisogno di tanta e più potenza sempre e comunque, al restante 90 del mercato basterà qualsiasi soluzione che faccia girare quei 4 programmi (o app) in croce al meglio.
E con MS che sta perdendo (anzi forse perso del tutto) la "necessità" di Windows per l'utenza comune, non c'è più il rischio che esca un OS che richieda 2 o 3 volte le risorse per fare le stesse cose ma con "interfaccia più figa".
Incrociando la cosa con la via presa da Apple di concentraersi sui prodotti consumer, direi che un Air con ARM dentro come prima soluzione non sarebbe da escludere a priori.
marchigiano
09-02-2015, 17:14
se è vero il salto di prestazioni che ci sarà con i prossimi arm a72 intel avrà ben poco da ridere...
Ginopilot
09-02-2015, 17:39
Intel ha una potenza di fuoco impressionante. Vorrei ricordare cosa successe con amd, indubbiamente superiore tecnologicamente e anche prestazionalmente, ai tempi del p4/athlon64.
Ma per il momento non se ne parla, la distanza e' ancora enorme. Magari fra una decina d'anni potrebbe nascere una interessante battaglia.
bobafetthotmail
09-02-2015, 17:46
Bon, quindi se Intel si è messa a commentare la cosa... sento puzza di coda di paglia....
:rolleyes:
luposelva
09-02-2015, 18:00
Magari nei sistemi desktop ARM è lontana per poter competere, ma sui portatili la cosa è più vicina, o almeno per chi non ha bisogno di prestazioni al top.
Ginopilot
09-02-2015, 18:05
Magari nei sistemi desktop ARM è lontana per poter competere, ma sui portatili la cosa è più vicina, o almeno per chi non ha bisogno di prestazioni al top.
E' quello che si diceva degli atom. Ma intel adesso ha un'offerta mobile con potenza davvero notevole. Per trovare qualcosa comparabile con un arm bisogna andare parecchio indietro nel tempo e nella fascia entry.
Ginopilot
09-02-2015, 18:22
Secondo me Intel ha poco da stare serena.
Chiaro ad oggi non esiste un soc ARM che ha la potenza di un i5 o un i7 ma:
Anche ad un i3 di prima generazione, manco lontanamente.
- il 90% dell'utenza Apple non sa che farsene di quella potenza.
Beh, nsomma eh. Un conto e' ios, un conto e' osx.
- cosa vieta ad Apple di fare un soc ARM con una ventina di core? (è una vera domanda, non so se l'architettura in qualche modo limita a 4/8)
La fai facile. Allora cosa gli vieta di decuplicare la frequenza? :D
Potrebbero arrivare alla potenza di un i5-i7, chiaramente con consumi simili e con limitazioni architetturali (prestazioni differenti in contesti differenti).
I vantaggi sono ovvi, libertà di progettazione, di fornitore.
Tant'è che tutti stanno lavorando per mantenere la compatibilità ARM, anche Microsoft.
Peccato sia tutto impossibile.
State parlando di Arm ... Beh, visto il caso di Surface RT, ormai abbandonato da Microsoft, come è successo in passato per altre tecnologie, Apple riuscirà a farle passare come il non plus ultra delle tecnologia e quindi indispensabile per il comune utente ...
La forza della comunicazione!!!
Ginopilot
09-02-2015, 18:27
State parlando di Arm ... Beh, visto il caso di Surface RT, ormai abbandonato da Microsoft, come è successo in passato per altre tecnologie, Apple riuscirà a farle passare come il non plus ultra delle tecnologia e quindi indispensabile per il comune utente ...
La forza della comunicazione!!!
Non e' questione di comunicazione. I soc apple sui device mobile vanno molto forte, inutile negarlo. Ma gli stessi soc, come quelli delle concorrenza, sono mediocri rispetto anche a cpu intel di 5-6 anni fa.
Secondo me Intel ha poco da stare serena.
Chiaro ad oggi non esiste un soc ARM che ha la potenza di un i5 o un i7 ma:
- il 90% dell'utenza Apple non sa che farsene di quella potenza.
- cosa vieta ad Apple di fare un soc ARM con una ventina di core? (è una vera domanda, non so se l'architettura in qualche modo limita a 4/8)
Potrebbero arrivare alla potenza di un i5-i7, chiaramente con consumi simili e con limitazioni architetturali (prestazioni differenti in contesti differenti).
I vantaggi sono ovvi, libertà di progettazione, di fornitore.
Tant'è che tutti stanno lavorando per mantenere la compatibilità ARM, anche Microsoft.
Si vabbè, come no.
Secondo me vi state facendo troppi voli pindarici con questi ARM.
Io ho un Macbook Air con i5 Haswell, e la potenza è giusta giusta per un utilizzo internet/office, anche con multitasking spinto, ma solo quello.
E penso che lo stesso si possa dire di qualsiasi altro ultrabook.
Io devo ancora vederlo questo chip ARM che a 1/3 del consumo ti dà la potenza di un i5 da 15W e ti fa fare in scioltezza tutte le applicazioni che ti aspetti da un computer da 1000€.
Se si cerca una facebook machine, appunto ciò di cui il 90% dell'utenza necessita, ci sono gli iPad. Costano la metà di un Air, hanno il retina display sbrilluccicoso, hanno il touch screen che fa fico, hanno due fotocamere per usarli in giro ostruendo la vista a chi ti sta vicino, li prendi del colore che vuoi, c'è la cover di louis vuitton, eccetera.
Apple non ha bisogno di spendere miliardi per un'altra transizione di piattaforma, milioni di utenti messi a disagio, rapporti distrutti con un importante partner che oggi è praticamente monopolista tra le CPU per PC, sputtanamento dei migliori portatili prosumer sul mercato, per avere cosa? Boh, non si sa.
Magari nei sistemi desktop ARM è lontana per poter competere, ma sui portatili la cosa è più vicina, o almeno per chi non ha bisogno di prestazioni al top.
Gli ARM più potenti hanno la potenza del più scrauso Atom, per arrivare a un i3 ci vuole un miracolo
This.
Intel competerà finchè riuscirà a controbilanciare l'inefficienza della sua architettura con un magigor numero di transistor messi nella stessa area con un PP più avanzato.
Chi ti ha detto che i processori Intel siano meno efficenti ?
C' è un test fatto su un sito concorrente, la conclusione è che in idle gli ARM consumano meno, ma sotto carico sono gli Intel ad essere più efficienti.
Il problema di ARM è sempre quello, anche il produttore più grosso resta una pulce a confronto di Intel, in termini di possibilità di investimento di soldi, tecnologia e uomini non hanno la potenza di fuoco per fare la guerra a x86
Considerando che il settore server è stato eliminato da Apple, che quello Pro sta seguendo a ruota, con questo passaggio eliminerebbe in un solo colpo tutta la divisione computer (che di fatto pesa ormai sempre meno sul fatturato) e potremmo assistere al passaggio Apple Inc.> Apple Phone inc. dopo aver visto in passato il passaggio Apple Computer Inc. > Apple Inc.Lo scorso trimestre la divisione Mac ha fatturato più di quella iPad. Il reparto computer di Apple va a gonfie vele e quest'anno piazzerà tranquillamente 22-23 milioni di unità sul mercato. Quindi... no. :read:
Gli ARM più potenti hanno la potenza del più scrauso Atom, per arrivare a un i3 ci vuole un miracoloForse anche perchè sono pensati per operare con pochissimi W e non sono CPU da notebook o desktop da 15-60+W.
Il problema di ARM è sempre quello, anche il produttore più grosso resta una pulce a confronto di Intel, in termini di possibilità di investimento di soldi, tecnologia e uomini non hanno la potenza di fuoco per fare la guerra a x86Gli investimenti che ci sono stati nel mobile negli ultimi anni sono stati enormi. Player come Samsung e Apple sono molto più grandi di Intel in termini finanziari, anche se questo non toglie che Intel abbia un vantaggio generazionale sui processi produttivi.
Morghel77
09-02-2015, 18:57
Non paragonate i SoC desktop di Intel con quelli mobile di ARM, non ha senso. Hanno annunciato l'A72 che distrugge tutto quello visto finora, se ne facessero una versione desktop che prestazioni avrebbe?
Morghel77
09-02-2015, 19:02
Volgiamo dire che non arriverebbe ad un i7? Ok, siamo daccordo, ma Intel procede da 4 generazioni con un misero 5% di prestazioni in più ogni volta, ARM avanza a suon di 30-50% e il prossimo A72 un 100% tondo. E' solo questione di tempo.
luposelva
09-02-2015, 19:06
Gli ARM più potenti hanno la potenza del più scrauso Atom, per arrivare a un i3 ci vuole un miracolo
Io non sono ferrato in materia, però so solo che i netbook con Atom non vanno una cippa, ed un tablet che sia ipad o android fa tutto in maniera fluida, se equipaggiati con gli ultimi proci.
Ovviamente i processori ARM sono lontani dagli intel, ma alla gente potrebbe interessare specie nel mobile le cose essenziali fatte bene, per uno che ha bisogno di prestazioni per giocare o far girare app pesanti allora il discorso cambia, ma questo tipo di utenza non è la maggioranza.
Non paragonate i SoC desktop di Intel con quelli mobile di ARM, non ha senso. Hanno annunciato l'A72 che distrugge tutto quello visto finora, se ne facessero una versione desktop che prestazioni avrebbe?Credo che tu stia sovrastimando notevolmente l'architettura di base di ARM. Quelle stime sono probabilmente ottimistiche e tengono anche in considerazione i miglioramenti dei processi produttivi. Guardando sul forum di Anandtech si parlava più realisticamente di un incremento del 20-40% di IPC. Già raggiungere le performance per core di Denver o Cyclone (le proposte di Nvidia e Apple) sarebbe già grassa e un buon risultato. Ciò che conta è fin dove può essere portata l'architettura di base se si hanno soldi e voglia di investirci sopra.
marchigiano
09-02-2015, 19:15
E' quello che si diceva degli atom. Ma intel adesso ha un'offerta mobile con potenza davvero notevole. Per trovare qualcosa comparabile con un arm bisogna andare parecchio indietro nel tempo e nella fascia entry.
be insomma... uno snapdragon 805 già oggi non fa schifo e consuma ben meno di un atom
Si vabbè, come no.
Secondo me vi state facendo troppi voli pindarici con questi ARM.
Io ho un Macbook Air con i5 Haswell, e la potenza è giusta giusta per un utilizzo internet/office, anche con multitasking spinto, ma solo quello.
E penso che lo stesso si possa dire di qualsiasi altro ultrabook.
e la miseria un i5 giusto giusto per office? e io che sono un barbone che mi faccio bastare un 2117U? :asd:
Marko#88
09-02-2015, 19:25
Si vabbè, come no.
Secondo me vi state facendo troppi voli pindarici con questi ARM.
Io ho un Macbook Air con i5 Haswell, e la potenza è giusta giusta per un utilizzo internet/office, anche con multitasking spinto, ma solo quello.
E penso che lo stesso si possa dire di qualsiasi altro ultrabook.
Sono d'accordo con te nel concetto ma hai un po' esagerato con l'esempio. Ho lo stesso air e per uso internet/office è anche sovradimensionato. Mostra però tutti i suoi limiti quando gli faccio esportare i tiff dai dng della fotocamera, nell'applicazione di filtri PS, nell'editing video (1080, nulla di fantascientifico).
Quindi concordo che con ARM oggi non so cosa ci si possa fare (di serio) ma che un i5 haswell sia appena sufficiente per un utilizzo base no dai, è un po' tirata come affermazione. :)
vabbé ormai sta notizia spazzatura di ARM sui mac fà piu' gossip di rocco siffredi all'isola dei famosi :asd:
Uncle Scrooge
09-02-2015, 19:27
A chi dice che gli Atom dei netbook non vanno una cippa mentre gli arm dei tablet fanno tutto in scioltezza, direi che si è perso 3 o 4 generazioni di Atom e soprattutto non ha mai provato un dispositivo con processore Atom Bay-Trail (quad-core x86-64 da 1.5 Ghz circa e SDP da 2 W) che fa girare in tutta scioltezza Windows 8.1, video full-hd, programmi pesanti come autocad o photoshop (ok non come un i7 ma li fa girare) etc...
Ho un Asus T100 con un processore così e ci lavoro 10 ore di fila senza ricaricare la batteria e wifi attivo.
cdimauro
09-02-2015, 19:30
Proprio su questi argomenti qualche giorno fa avevo scritto un paio di post, di cui riporto il contenuto in quanto rispondono a diverse cose che sono state scritte in questo thread.
Riguardo al Cortex-A72 (http://www.hwupgrade.it/forum/showpost.php?p=42112576&postcount=23):
Come CPU lo snapdragon 810 (http://www.notebookcheck.net/Mobile-Processors-Benchmarklist.2436.0.html) è ancora lontano dagli i3, ma insidia gli i3 ULV, in posizione 410, con un consumo inferiore, ma chiaramente è uscito anche 2 anni dopo.
A parte questo, per arrivare a quelle prestazioni (con tutti i limiti rappresentati dal benchmark in questione, sia chiaro) mette in gioco parecchie risorse.
Per confronto:
Snapdragon 810 (http://en.wikipedia.org/wiki/Qualcomm_Snapdragon#Snapdragon_810)
ARM Cortex-A57 (http://en.wikipedia.org/wiki/ARM_Cortex-A57)
ARM Cortex-A53 (http://en.wikipedia.org/wiki/ARM_Cortex-A53)
Intel® Core™ i3-4010Y (http://ark.intel.com/products/75988/Intel-Core-i3-4010Y-Processor-3M-Cache-1_30-GHz)
Ma è interessante osservare le caratteristiche dell'Atom che sta immediatamente dietro allo Snapdragon 810: Intel® Atom™ Processor Z3795 (http://ark.intel.com/products/80267); che, a mio avviso, è il reale concorrente dell'810. ;)
Riguardo alla scalabilità delle prestazioni/IPC (http://www.hwupgrade.it/forum/showpost.php?p=42099873&postcount=21):
Non sono così convinto che non ci possano essere più rivoluzioni sull'IPC da parte d'Intel :)
Non solo di Intel, visto che anche la concorrenza non è messa male con le proprie microarchitetture.
Diciamo pure che non c'è una spinta in tal senso (ma resta forte in campo gpu, soprattutto sui notebook), piuttosto è meno dispendioso aumentare le SIMD, aumentare i core (ma solo in fascia enterprise o ws di fascia alta), aumentare la quantità e l'architettura della cache, che danno benefici più immediati.
Tanto più quando c'è di mezzo il die shrink.
Esattamente, perché fare interventi "miracolosi" nel resto del sistema è alquanto improbabile. Basti disassemblare un po' di codice delle applicazioni per comprendere quanto intricata possa essere la foresta di istruzioni che si susseguono durante l'esecuzione, con le numerose dipendenze fra di essere che si vanno formando, e le esecuzioni condizionate (salti).
L'esecuzione out-of-order ha dato una gran mano per cercare di sfruttare il più possibile le unità di calcolo a disposizione, mantenendo in sospeso le istruzioni in attesa a causa delle dipendenze, ma ha praticamente esaurito il suo compito.
Continuare ad aggiungere decoder (per decodificare più istruzioni di quelle che è possibile adesso), unità di calcolo, pipeline, code per mantenere le istruzioni "congelate", ecc. porta ben pochi vantaggi rispetto all'incremento della complessità della circuiteria. E questo, ribadisco, dipende dal fatto che il codice "general purpose" è abbastanza "frastagliato".
Se, per fare un altro esempio totalmente diverso, si va a vedere il disassemblato del codice che fa uso (massiccio) del paradigma SIMD, si può vedere quanto sia molto più semplice e lineare, per cui aumentare il numero di unità d'esecuzione SIMD porta a un notevole incremento delle prestazioni.
Lo stesso dicasi quando si aggiungono core a un chip, nel caso in cui si eseguano applicazioni che si prestano alla distribuzione del carico di lavoro, oppure se è possibile eseguire più applicazioni, anche eterogenee, che impegnano per bene i core a disposizione.
Ma, ribadisco, non ci sono ricette miracolose per aumentare le prestazioni su singolo core/thread. Siamo arrivati sostanzialmente al capolinea.
Se qualcuno le conoscesse, posso assicurare che farebbe soldi a palate. Ma dopo più di 3 decadi che studio e lavoro con le architetture dei calcolatori, la mia esperienza mi fa intuire che ciò non sarà possibile.
Felice di essere smentito. Vuol dire che avrò ancora altro da imparare (che non guasta mai: fossilizzarsi per un informatico è deleterio). ;)
D'altra parte, e com'è già stato detto, sono l'A8X di Apple e Denver di nVidia a primeggiare in ambito ARM, ma mettendo in gioco un bel po' di risorse hardware. Se consideriamo le prestazioni su singolo core/thread (dunque rimando all'IPC), riescono a ottenere quei risultati dovendo decodificare/eseguire rispettivamente 6 e 7 istruzioni (massimo) per ciclo di clock. Valori impressionanti se consideriamo che il decoder (e l'unità di retire) dei processori desktop di Intel arriva al massimo a 4, mentre quello di Atom/Baytrail al massimo a 2. Idem se andiamo a effettuare un confronto sulla quantità di cache L1 utilizzata (in particolare per il codice).
Segni, questi, che le implementazioni dell'architettura ARM citate risultano già abbastanza tirate. Dunque è difficile prevedere stravolgimenti / rivoluzioni per il futuro, se non rimanendo sul numero di core impacchettati e/o sulle unità SIMD.
Non è, dunque, una questione di mero processo produttivo (di cui, peraltro, proprio gli Atom sono sempre stati dotati di quello più vecchio; specialmente i primi): l'architettura conta, e quella x86 consente molto più facilmente di ottenere prestazioni elevate grazie al fatto che un'istruzione CISC x86 consente di "impacchettare" molto più "lavoro utile" rispetto ai RISC, col secondo e non indifferente vantaggio rappresentato dalla miglior densità di codice (che a sua volta incide sulla dimensione delle cache, e sul consumo della banda verso tutta la gerarchia della memoria).
Tornando alla notizia, certamente sarebbe possibile per Apple utilizzare i suoi SoC ARM anche per i propri computer desktop (e notebook), ma se riuscisse a prestazioni E consumi tali da poter rimpiazzare i chip di Intel. Ma, per quanto detto qui sopra, rimango decisamente scettico.
Altro fattore molto importante è rappresentato dal fatto che le vendite dei Mac sono aumentate nettamente proprio grazie al passaggio da PowerPC a Intel, perché era finalmente possibile eseguire Windows e le sue applicazioni. Passare ad ARM significherebbe tornare al passato, e dunque rinunciare al fattore di crescita che ha rilanciato i Mac. Fattore, questo, tutt'altro che trascurabile.
Comunque e come diceva il CEO di Intel di recente, l'importante è continuare a offrire ottimi prodotti, che incontrino il favore dei partner, Apple inclusa. ;)
cdimauro
09-02-2015, 19:31
A chi dice che gli Atom dei netbook non vanno una cippa mentre gli arm dei tablet fanno tutto in scioltezza, direi che si è perso 3 o 4 generazioni di Atom e soprattutto non ha mai provato un dispositivo con processore Atom Bay-Trail (quad-core x86-64 da 1.5 Ghz circa e SDP da 2 W) che fa girare in tutta scioltezza Windows 8.1, video full-hd, programmi pesanti come autocad o photoshop (ok non come un i7 ma li fa girare) etc...
Ho un Asus T100 con un processore così e ci lavoro 10 ore di fila senza ricaricare la batteria e wifi attivo.
* ;)
bobafetthotmail
09-02-2015, 19:50
A chi dice che gli Atom dei netbook non vanno una cippa mentre gli arm dei tablet fanno tutto in scioltezza, direi che si è perso 3 o 4 generazioni di Atom e soprattutto non ha mai provato un dispositivo con processore Atom Bay-Trail (quad-core x86-64 da 1.5 Ghz circa e SDP da 2 W)Quoto.
Ci aggiungo gli Atom C2000 "Avoton", che sono Atom da server (NAS più che server o comunque storage più che velocità), quindi supporto ECC fino a 64 GB (!!) e quelli octacore reggono 3-4 streaming in transcoding con plex.
Altro fattore molto importante è rappresentato dal fatto che le vendite dei Mac sono aumentate nettamente proprio grazie al passaggio da PowerPC a Intel, perché era finalmente possibile eseguire Windows e le sue applicazioni. Passare ad ARM significherebbe tornare al passato, e dunque rinunciare al fattore di crescita che ha rilanciato i Mac. Fattore, questo, tutt'altro che trascurabile.Ma se passassero ad ARM.... (rullo di tamburi).......
si potrebbe installare Android! :sofico:
no vabbè sto scherzando, non gli conviene minimamente. :Prrr:
CrapaDiLegno
09-02-2015, 19:51
Chi ti ha detto che i processori Intel siano meno efficenti ?
C' è un test fatto su un sito concorrente, la conclusione è che in idle gli ARM consumano meno, ma sotto carico sono gli Intel ad essere più efficienti.
Confrontando un SoC fatto con un PP a 28nm dal costo di una cicca al mm^2 e uno a 22nm che costa il quadruplo?
Sicuramente hanno pari efficienza. Sicuramente.
Il problema di ARM è sempre quello, anche il produttore più grosso resta una pulce a confronto di Intel, in termini di possibilità di investimento di soldi, tecnologia e uomini non hanno la potenza di fuoco per fare la guerra a x86
???
Apple ha una liquidità tale da preoccupare chiunque, piccoli staterelli inclusi pieni di debiti inclusi.
Samsung non è Apple, ma ha una potenza in R&D da far paura anche ad Intel.
Qualcomm non è Intel, ma è certamente più grande di AMD quando presentò l'Athlon.
Tranne Apple, che credo però se ne sbatta altamente, tutti questi produttori hanno un grande vantaggio: operano in un mercato che non è x86 centrico e in cui molti dei clienti non possono essere ricattati da Intel perché molti non operano nel mercato desktop. Quindi le famose manovre sporche di Intel qui non sono applicabili.
Il paragone con la questione AMD non si pone proprio: mentre ai tempi Intel era un'Orca che si pappava allegramente uno squalo dopo averlo afferato per la coda, qui abbiamo una Intel Balena attaccata da diversi Pirahna.
Più difficile difendersi. Ed attaccare. Intel sa che ogni anno speso a non guadagnare share nel mercato esplosivo del momento equivale a maggior guadagni e capacità di spesa per il futuro per i suoi concorrenti. E maggiori problemi le causeranno.
Oggi i mercati mobile/desktop/server sono separati per ovvie ragioni storiche e altissime dipendenze da SW creati in trent'anni di sviluppo. Ma sono cose che stanno per essere superate: Apple ha il suo sistema di sviluppo trasversale, MS ha .NET, Android ha la Dalvik e derivate. Quello che c'è sotto il cofano conta sempre meno: conta quello che è in grado di fare, quanto consuma e sopratutto quanto costa.
Il primo punto è vinto da Intel. Il secondo per ora è ad armi pari. Il terzo è vinto da ARM a mani basse. Miscelate il tutto, shekerate, mettere in fresco 3 o 4 anni e vedremo cosa accadrà.
TheDariodario
09-02-2015, 19:55
solo io vedo come possibile sbocco un dispositivo "ibrido" ?
Dopotutto microsoft sta puntando moltissimo in questa direzione, perchè apple non dovrebbe farlo?
Alla fine un iPad pro con OS X sopra sarebbe una figata non da poco :read:
La notizia che apple abbia un team che lavora al porting di OS X su arm e che abbia puntato sulle CPU X64 può significare solo 3 cose:
1) Si tengono pronti per qualsiasi eventualità, hanno i soldi per poterlo fare e così mettono sotto pressione Intel
2) Stanno pensando di creare "l'anello mancante" tra iOS e OS X con una specie di iPad Pro
3) Hanno una qualche tecnologia che gli permetta di tirar fuori un ARM cazzutissimo (improbabile).
Non sono scemi, adesso per loro non avrebbe senso tagliare la linea Mac! So che ricevono molti più profitti con l'iPhone ma sono il primo produttore di PC al mondo, tra i pochissimi in crescita con tutto il settore che cala, in più puntano tutto su un ecosistema unico.
cdimauro
09-02-2015, 19:59
Confrontando un SoC fatto con un PP a 28nm dal costo di una cicca al mm^2 e uno a 22nm che costa il quadruplo?
Sicuramente hanno pari efficienza. Sicuramente.
1) efficienza != costi.
2) ma i 22nm di Intel non erano equivalenti ai 28nm delle altre fonderie?
???
Apple ha una liquidità tale da preoccupare chiunque, piccoli staterelli inclusi pieni di debiti inclusi.
Samsung non è Apple, ma ha una potenza in R&D da far paura anche ad Intel.
Qualcomm non è Intel, ma è certamente più grande di AMD quando presentò l'Athlon.
Tranne Apple, che credo però se ne sbatta altamente, tutti questi produttori hanno un grande vantaggio: operano in un mercato che non è x86 centrico e in cui molti dei clienti non possono essere ricattati da Intel perché molti non operano nel mercato desktop. Quindi le famose manovre sporche di Intel qui non sono applicabili.
E qui arrivano le solite illazioni che ami rilanciare continuamente quando parli di Intel.
Mentre quando nVidia vende schede video con caratteristiche tecniche diverse da quelle reali, ti eserciti nel triplo salto mortale carpiato all'indietro pur di difenderla disperatamente...
Oggi i mercati mobile/desktop/server sono separati per ovvie ragioni storiche e altissime dipendenze da SW creati in trent'anni di sviluppo. Ma sono cose che stanno per essere superate: Apple ha il suo sistema di sviluppo trasversale, MS ha .NET, Android ha la Dalvik e derivate. Quello che c'è sotto il cofano conta sempre meno: conta quello che è in grado di fare, quanto consuma e sopratutto quanto costa.
Peccato che tutte queste macchine virtuali alla fine devono generare codice binario, che è quello che gira realmente. E lì mi pare che contino UN POCHINO le prestazioni, no?
Il primo punto è vinto da Intel. Il secondo per ora è ad armi pari. Il terzo è vinto da ARM a mani basse.
Se i tre punti erano mobile/desktop/server, allora c'è qualcosa che non quadra...
Miscelate il tutto, shekerate, mettere in fresco 3 o 4 anni e vedremo cosa accadrà.
Le shakerate sono tipiche di chi ama parlare di cose che non conosce.
solo io vedo come possibile sbocco un dispositivo "ibrido" ?
Dopotutto microsoft sta puntando moltissimo in questa direzione, perchè apple non dovrebbe farlo?
Alla fine un iPad pro con OS X sopra sarebbe una figata non da poco :read:
La notizia che apple abbia un team che lavora al porting di OS X su arm e che abbia puntato sulle CPU X64 può significare solo 3 cose:
1) Si tengono pronti per qualsiasi eventualità, hanno i soldi per poterlo fare e così mettono sotto pressione Intel
2) Stanno pensando di creare "l'anello mancante" tra iOS e OS X con una specie di iPad Pro
3) Hanno una qualche tecnologia che gli permetta di tirar fuori un ARM cazzutissimo (improbabile).
Non sono scemi, adesso per loro non avrebbe senso tagliare la linea Mac! So che ricevono molti più profitti con l'iPhone ma sono il primo produttore di PC al mondo, tra i pochissimi in crescita con tutto il settore che cala, in più puntano tutto su un ecosistema unico.
Anello mancante? Grazie a dio Apple a differenza di Microsoft ha sempre tenuto i due sistemi mobile e desktop separati, seppur legati tra loro.
Sono strafelice di non aver mai visto prodotti mac con inutili display touchscreen e non credo proprio, visti gli ottimi numeri, che ne vedremo uno.
Per quanto riguarda ipad pro, se verrà fatto veramente, sarà comunque un ipad con ios, scordatevi i tablet da portare nel cesso con OSX
cdimauro
09-02-2015, 20:01
solo io vedo come possibile sbocco un dispositivo "ibrido" ?
Dopotutto microsoft sta puntando moltissimo in questa direzione, perchè apple non dovrebbe farlo?
Alla fine un iPad pro con OS X sopra sarebbe una figata non da poco :read:
La notizia che apple abbia un team che lavora al porting di OS X su arm e che abbia puntato sulle CPU X64 può significare solo 3 cose:
1) Si tengono pronti per qualsiasi eventualità, hanno i soldi per poterlo fare e così mettono sotto pressione Intel
2) Stanno pensando di creare "l'anello mancante" tra iOS e OS X con una specie di iPad Pro
3) Hanno una qualche tecnologia che gli permetta di tirar fuori un ARM cazzutissimo (improbabile).
Non sono scemi, adesso per loro non avrebbe senso tagliare la linea Mac! So che ricevono molti più profitti con l'iPhone ma sono il primo produttore di PC al mondo, tra i pochissimi in crescita con tutto il settore che cala, in più puntano tutto su un ecosistema unico.
Personalmente propendo per la 1b): cercare di strappare accordi più vantaggiosi a Intel.
a livello generale arm puo' essere in vantaggio solo perche' i sistemi che girano su arm sono ottimizzati per arm mentre x86=windows che si porta dietro m.erda di 20 anni fa, con gente che se la prende quando le si spiega che dovrebbero piantarla di portarsi dietro windows a 32bit nelle nuove release e fare pulizia... Questa e' la situazione. Il giorno che intel e microsoft si svegliano male danno un bel colpo di spugna e si riparte, speriamo che la concorrenza di arm favorisca questo progresso visto che amd ormai e' comatosa.
a livello generale arm puo' essere in vantaggio solo perche' i sistemi che girano su arm sono ottimizzati per arm mentre x86=windows che si porta dietro m.erda di 20 anni fa, con gente che se la prende quando le si spiega che dovrebbero piantarla di portarsi dietro windows a 32bit nelle nuove release e fare pulizia... Questa e' la situazione. Il giorno che intel e microsoft si svegliano male danno un bel colpo di spugna e si riparte, speriamo che la concorrenza di arm favorisca questo progresso visto che amd ormai e' comatosa.
a livello generale arm puo' essere in vantaggio solo perche' i sistemi che girano su arm sono ottimizzati per arm mentre x86=windows che si porta dietro m.erda di 20 anni fa, con gente che se la prende quando le si spiega che dovrebbero piantarla di portarsi dietro windows a 32bit nelle nuove release e fare pulizia... Questa e' la situazione. Il giorno che intel e microsoft si svegliano male danno un bel colpo di spugna e si riparte, speriamo che la concorrenza di arm favorisca questo progresso visto che amd ormai e' comatosa.
veramente il cancro da estirpare é java, che ha fatto diventare chiunque un programmatore ed ha dato vita a framework e sofware che per girare correttamente richiedono 4 vole le risorse di un classico sw compilato nativamente.
La cosa che fà sorridere é che allo stesso tempo java e i suoi derivato stanno facendo la fortuna di android e di ARM
cdimauro
09-02-2015, 20:30
a livello generale arm puo' essere in vantaggio solo perche' i sistemi che girano su arm sono ottimizzati per arm mentre x86=windows che si porta dietro m.erda di 20 anni fa,
Prego? Che c'entra x86 con Windows, e cosa si porterebbe dietro Windows?
con gente che se la prende quando le si spiega che dovrebbero piantarla di portarsi dietro windows a 32bit nelle nuove release e fare pulizia...
Mai sentito parlare di WoW64 (http://en.wikipedia.org/wiki/WoW64)? Come pensi che facciano gli altri s.o. a 64 bit a far girare codice a 32 bit?
Questa e' la situazione. Il giorno che intel e microsoft si svegliano male danno un bel colpo di spugna e si riparte, speriamo che la concorrenza di arm favorisca questo progresso visto che amd ormai e' comatosa.
In che modo dovrebbero ripartire Intel e Microsoft? Potresti fare qualche esempio?
Sono d'accordo con te nel concetto ma hai un po' esagerato con l'esempio. Ho lo stesso air e per uso internet/office è anche sovradimensionato. Mostra però tutti i suoi limiti quando gli faccio esportare i tiff dai dng della fotocamera, nell'applicazione di filtri PS, nell'editing video (1080, nulla di fantascientifico).
Quindi concordo che con ARM oggi non so cosa ci si possa fare (di serio) ma che un i5 haswell sia appena sufficiente per un utilizzo base no dai, è un po' tirata come affermazione. :)
La mia tesi era "abbondante per un utilizzo base, ma appena lo tiri si vedono i limiti". Più o meno quello che hai detto tu :)
Cioè dopotutto è una CPU da 15W, è spaventoso il progresso che c'è stato negli ultimi anni.. con una tale autonomia poi.
Non paragonate i SoC desktop di Intel con quelli mobile di ARM, non ha senso. Hanno annunciato l'A72 che distrugge tutto quello visto finora, se ne facessero una versione desktop che prestazioni avrebbe?
Ci sarà pure un motivo se sto benedetto ARM desktop non sta nella roadmap di nessuno? Distrugge tutti? Fallo uscire, fai benchmark con applicazioni che possano rispecchiare un uso concreto, e vediamo se ARM ammazza con un dito Intel che ogni anno investe una fortuna sugli i7. Fino ad allora è vaporware
cdimauro
09-02-2015, 20:59
Nel thread sulla notizia degli A72 avevo chiesto spiegazioni riguardo ai benchmark che erano stati effettuati: non ho ancora ricevuto risposta...
TheDariodario
09-02-2015, 21:06
Anello mancante? Grazie a dio Apple a differenza di Microsoft ha sempre tenuto i due sistemi mobile e desktop separati, seppur legati tra loro.
Sono strafelice di non aver mai visto prodotti mac con inutili display touchscreen e non credo proprio, visti gli ottimi numeri, che ne vedremo uno.
Per quanto riguarda ipad pro, se verrà fatto veramente, sarà comunque un ipad con ios, scordatevi i tablet da portare nel cesso con OSX
Veramente non voglio un sistema desktop che si possa usare col touch screen (e ho fatto notare questo come principale punto di debolezza di Windows 10 nel suo thread) voglio qualcosa di intelligente, che si adatti dinamicamente!
Un iPad con iOS e un Notebook con OS X nello stesso dispositivo...
Voglio dire, iOS non è altro che un OS X con qualche API per il touch e la Springboard.app & co. al posto del finder! Se avete un iOS JB fate un respring, tutto l'ambiente mobile, applicazioni e interfaccia si riavviano in 4 secondi su un preistorico iPhone 4, su un chip decente penso si possa far passare l'OS da Finder a Springboard istantaneamente senza riavviare il sistema.
marchigiano
09-02-2015, 21:11
a72 uscirà a tardo 2016 impossibile avere bench ora... poi disegnare una cpu per desktop è ben altro paio di maniche rispetto a un soc per smartphone
Veramente non voglio un sistema desktop che si possa usare col touch screen (e ho fatto notare questo come principale punto di debolezza di Windows 10 nel suo thread) voglio qualcosa di intelligente, che si adatti dinamicamente!
Un iPad con iOS e un Notebook con OS X nello stesso dispositivo...
Voglio dire, iOS non è altro che un OS X con qualche API per il touch e la Springboard.app & co. al posto del finder! Se avete un iOS JB fate un respring, tutto l'ambiente mobile, applicazioni e interfaccia si riavviano in 4 secondi su un preistorico iPhone 4, su un chip decente penso si possa far passare l'OS da Finder a Springboard istantaneamente senza riavviare il sistema.
E quali app vorresti farci girare di preciso?
App mac, sono ottimizzate per tastiera e mouse.
App iOS, a quel punto hai un iPad.
Investire su un nuovo sistema per avere un giocattolo che sarebbe troppo grande per sostituire un tablet e troppo poco potente per sostituire un macbook?
Apple è troppo lungimirante per fare queste cose, le loro cappellate le hanno fatte e continuano a farle, ma hanno riso troppo sul disastro Windows 8 per fare qualcosa del genere.
cdimauro
09-02-2015, 21:14
a72 uscirà a tardo 2016 impossibile avere bench ora... poi disegnare una cpu per desktop è ben altro paio di maniche rispetto a un soc per smartphone
Esattamente.
Comunque i benchmark li ha effettuati ARM e ha fornito soltanto i numeri. Non si sa cosa sia stato eseguito e le caratteristiche precise di A72, grazie ai quali si potrebbe cercare di capire quali innovazioni sono state apportate e il perché di quei risultati.
veramente il cancro da estirpare é java, che ha fatto diventare chiunque un programmatore ed ha dato vita a framework e sofware che per girare correttamente richiedono 4 vole le risorse di un classico sw compilato nativamente.
La cosa che fà sorridere é che allo stesso tempo java e i suoi derivato stanno facendo la fortuna di android e di ARM
concordo assolutamente
Prego? Che c'entra x86 con Windows, e cosa si porterebbe dietro Windows?
facevo un discorso generale a livello di "sistemi", se incontri un x86 che non sia un server al 99,9% gira con windows, tipicamente molto piu' avido di un so embedded come storicamente sono quelli per arm. Da qui (e solo da qui) l'eventuale svantaggio per prestazioni/consumi che puo' avvantaggiare arm su intel
E quali app vorresti farci girare di preciso?
App mac, sono ottimizzate per tastiera e mouse.
App iOS, a quel punto hai un iPad.
Investire su un nuovo sistema per avere un giocattolo che sarebbe troppo grande per sostituire un tablet e troppo poco potente per sostituire un macbook?
Apple è troppo lungimirante per fare queste cose, le loro cappellate le hanno fatte e continuano a farle, ma hanno riso troppo sul disastro Windows 8 per fare qualcosa del genere.
non ho capito bene nemmeno io, forse vorrebbe una specie di ibrido in stile wintel dove farci girare siao osx che ios, un po' come quegli accrocchi che hanno windows e android preinstallati ma senza il touch? boh ...
cdimauro
09-02-2015, 21:17
facevo un discorso generale a livello di "sistemi", se incontri un x86 che non sia un server al 99,9% gira con windows, tipicamente molto piu' avido di un so embedded come storicamente sono quelli per arm. Da qui (e solo da qui) l'eventuale svantaggio per prestazioni/consumi che puo' avvantaggiare arm su intel
OK, ma quando si fanno confronti si cerca di lasciare soltanto una variabile di differenza, mantenendo tutto il resto uguale. Nello specifico, l'unica dovrebbe essere la CPU/SoC (anche se è quasi impossibile che siano soltanto queste a essere diverse), mentre almeno il s.o. dovrebbe essere lo stesso.
concordo assolutamente
facevo un discorso generale a livello di "sistemi", se incontri un x86 che non sia un server al 99,9% gira con windows, tipicamente molto piu' avido di un so embedded come storicamente sono quelli per arm. Da qui (e solo da qui) l'eventuale svantaggio per prestazioni/consumi che puo' avvantaggiare arm su intel
Non so, guarda, ho uno Stream 7 con Windows 8 completo sopra, ha il più scarso degli Atom e 1GB di RAM, lo trovo più reattivo del Fonepad che abbiamo sempre dentro casa, che oltretutto ha anche una risoluzione inferiore e Android senza nessuna porcheria sopra.
Gli investimenti che ci sono stati nel mobile negli ultimi anni sono stati enormi. Player come Samsung e Apple sono molto più grandi di Intel in termini finanziari, anche se questo non toglie che Intel abbia un vantaggio generazionale sui processi produttivi.
Apple ha una liquidità tale da preoccupare chiunque, piccoli staterelli inclusi pieni di debiti inclusi.
Samsung spende più di Intel, ma si occupa di qualsiasi cosa sia elettronica, Intel spende quasi esclusivamente sui processori, Apple non spende una mazza in ricerca e sviluppo :
http://www.hwupgrade.it/news/telefonia/spesa-in-ricerca-e-sviluppo-samsung-seconda-nel-mondo-apple-neanche-fra-i-primi-venti_55168.html
Se guardiamo solo la spesa in semiconduttori abbiamo questo grafico :
http://www.bitsandchips.it/images/2013/11/15/vendite0813.png
Intel è l' unica che progetta fonderie in base ai processori e processori in base alle fonderie, questo le permette ottimizzazioni nella costruzione che chi si rivolge a TSMC o simili non può che sognare.
L' unico problema di Intel è il gigantismo, si è visto come nel settore mobile si sia mossa in maniera goffa e lenta, partendo in ritardo e male, la burocrazia potrebbe essere il solo vero tallone d' Achille.
cdimauro
09-02-2015, 21:34
Sbagliando s'impara... ;)
Ricordate che Intel investe SOLO in semiconduttori e processori. Samsung investe tantissimo in R&D, ma ha le mani in troppi settori per poter spaventare Intel.
Che poi un ARM da due soldi (costo e valore) vada bene a chi compra uno smartphone, non significa che possa anche essere sufficiente a chi spende qualche migliaio di euro in un PC che, tecnicamente, dovrebbe poter fare qualcosa in più rispetto ad aprire Facebook.
Va beh che a fidarsi solo di certi utenti in questo forum, un SoC ARM in futuro (non si sa quando) farà quello che attualmente fa uno Xeon, consumando meno della sveglia che compri dal tizio che ti dice:"Ho stato in Albania e sono visto gli albanesi".
PS: .NET, JVM & co. non sono miracolose; alla fine della festa, si deve comunque arrivare ad istruzioni binarie eseguite da una CPU; ed è a questo punto che si vede la differenza tra un chip piuttosto che un altro.
veramente il cancro da estirpare é java, che ha fatto diventare chiunque un programmatore ed ha dato vita a framework e sofware che per girare correttamente richiedono 4 vole le risorse di un classico sw compilato nativamente.
La cosa che fà sorridere é che allo stesso tempo java e i suoi derivato stanno facendo la fortuna di android e di ARM
java è un buon linguaggio con pregi e difetti, è stato piuttosto lungimirante ed ha gettato le basi per nuove forme di programmazione colmando le lacune OO di c++, quindi?
cdimauro
09-02-2015, 22:22
C++ non ha lacune in ambito OOP rispetto a Java. Al contrario: è un superset di quest'ultimo in quanto a caratteristiche OOP.
La fortuna di Java è stata quella di essere stato sponsorizzato da Sun, ma soprattutto di essere stato utilizzato per le famigerate applet (ormai del tutto in disuso. Lungimiranza anche questa?).
Per il resto non ha portato innovazione nella letteratura informatica riguardo ai linguaggi di programmazione né tanto meno "nuove forme" di programmazione.
EDIT. Comunque l'argomento è OT. Eventualmente si può aprire un thread nella sezione Programmazione.
MiKeLezZ
09-02-2015, 23:06
Intel avrà cpu più performanti solo se riuscirà a stare in testa in termini di tecnologia produttiva e se riuscirà a mantenere la consistenza numerica del suo zoccolo duro (software per x86 non portabile).
Il problema è che sia Apple che Google spingono molto sulla portabilità del loro software (non a caso Apple ha investito forte sullo sviluppo di una toolchain completa basata su LLVM e lo ha integrato in XCode) ed anche Microsoft (con molte più rogne causate dai requisiti di retrocompatibilità e varie scelte sbagliate) sta facendo lo stesso.
Quindi lo "zoccolo duro" degli utenti di cpu Intel rischia di ridursi ulteriormente e se vengono a mancare i soldi per arrivare al processo produttivo successivo prima degli altri viene meno anche il vantaggio in termini di prestazioni visto che il passaggio allo step successivo diventa sempre più complesso e costoso.Pure rimanessero allo step attuale Intel ha un vantaggio tecnologico mostruoso che si traduce in chip incredibilmente performanti e parsimoniosi.
Ma te li sei visti i portatili con gli schermoni da 8-12 ore? Quando fatica ad arrivarci uno smartphone!?!?
Magari nei sistemi desktop ARM è lontana per poter competere, ma sui portatili la cosa è più vicina, o almeno per chi non ha bisogno di prestazioni al top.Un portatile con ARM? Per farci girare cosa? E' come una macchina senza ruote :|
cosa vieta ad Apple di fare un soc ARM con una ventina di core? (è una vera domanda, non so se l'architettura in qualche modo limita a 4/8)
Potrebbero arrivare alla potenza di un i5-i7, chiaramente con consumi simili e con limitazioni architetturali (prestazioni differenti in contesti differenti).
I vantaggi sono ovvi, libertà di progettazione, di fornitore.
Tant'è che tutti stanno lavorando per mantenere la compatibilità ARM, anche Microsoft.Potrebbero fare anche un ARM con 120 core, ma se i programmi sono creati per usarne solo un paio, non serve a nulla.
No, questa cosa non si può cambiare, perché richiederebbe la segmentazione del programma in sottoprocessi per poi riunire il tutto: follia (e nel momento in cui qualcuno fosse talmente folle da farlo, userebbe anzi la GPU).
Siete troppo piccoli per ricordare che Apple usava già processori "alterantivi" (I famosi Power di IBM) e passò a Intel proprio perché i primi consumavano di più e andavano di meno.
Se dovesse passare a ARM, dovrebbe farlo in virtù degli stessi motivi, altrimenti sarebbe un downgrade.
E fare un downgrade ai suoi sistemi sarebbe enormemente stupido perché la gente non li comprerebbe più come prima.
Samsung spende più di Intel, ma si occupa di qualsiasi cosa sia elettronica, Intel spende quasi esclusivamente sui processori, Apple non spende una mazza in ricerca e sviluppo :
http://www.hwupgrade.it/news/telefonia/spesa-in-ricerca-e-sviluppo-samsung-seconda-nel-mondo-apple-neanche-fra-i-primi-venti_55168.html
Intel è l' unica che progetta fonderie in base ai processori e processori in base alle fonderie, questo le permette ottimizzazioni nella costruzione che chi si rivolge a TSMC o simili non può che sognare.
L' unico problema di Intel è il gigantismo, si è visto come nel settore mobile si sia mossa in maniera goffa e lenta, partendo in ritardo e male, la burocrazia potrebbe essere il solo vero tallone d' Achille.Insomma.
http://s16.postimg.org/d3mdw1j7p/R_D.jpg
marchigiano
09-02-2015, 23:14
ricordo solo che intel un tempo aveva una licenza arm che poi ha abbandonato
che con gli UTILI che fa in UN GIORNO si può comprare TRE licenze complete arm
che con gli utili di 2 anni si compra il 100% delle azioni arm
quindi se non si butta su arm è perchè non gli conviene o perchè i dirigenti sono scimmie :asd:
OK, ma quando si fanno confronti si cerca di lasciare soltanto una variabile di differenza, mantenendo tutto il resto uguale. Nello specifico, l'unica dovrebbe essere la CPU/SoC (anche se è quasi impossibile che siano soltanto queste a essere diverse), mentre almeno il s.o. dovrebbe essere lo stesso.
verissimo a livello teorico (e matematico), a livello pratico un po' impossibile :) altrimenti si finisce per confrontare android arm con android x86 che ha cominciato a girare decentemente l'altroieri
comunque la morte di x86 e/o di intel e' stata presagita un mucchio di volte, e invece non e' mai cambiato un tubo, dubito che la volta che davvero ci sara' uno scrollone non riescano a stare al passo, se non innovano poi cosi' tanto e' solo per mancanza di concorrenza
rockroll
10-02-2015, 01:20
This.
Hai perfettamente ragione. Intel competerà finchè riuscirà a controbilanciare l'inefficienza della sua architettura con un magigor numero di transistor messi nella stessa area con un PP più avanzato. Ricordando che i chip Intel per area costano molto di più dei SoC ARM fatti con processi produttivi molto meno costosi (vedesi debacle Intel con Atom e i costi connessi per circa 40 milioni di pezzi venduti).
Quando questo non avverrà più, Intel non sarà poi così tanto avanti. E a parte rivolgersi ai professionisti che hanno davvero bisogno di tanta e più potenza sempre e comunque, al restante 90 del mercato basterà qualsiasi soluzione che faccia girare quei 4 programmi (o app) in croce al meglio.
E con MS che sta perdendo (anzi forse perso del tutto) la "necessità" di Windows per l'utenza comune, non c'è più il rischio che esca un OS che richieda 2 o 3 volte le risorse per fare le stesse cose ma con "interfaccia più figa".
Incrociando la cosa con la via presa da Apple di concentraersi sui prodotti consumer, direi che un Air con ARM dentro come prima soluzione non sarebbe da escludere a priori.
Concordo perfettamente con te e con il tuo interlocutore.
Sono considerazioni validissime, che però i difensori d'ufficio della conbutta Wintel non vorranno sentirsi dire.
rockroll
10-02-2015, 01:23
Hanno ragione.
Cerr...rto..., e sopratutto sono di una modestia assoluta.
rockroll
10-02-2015, 01:27
Io non sono ferrato in materia, però so solo che i netbook con Atom non vanno una cippa, ed un tablet che sia ipad o android fa tutto in maniera fluida, se equipaggiati con gli ultimi proci.
Ovviamente i processori ARM sono lontani dagli intel, ma alla gente potrebbe interessare specie nel mobile le cose essenziali fatte bene, per uno che ha bisogno di prestazioni per giocare o far girare app pesanti allora il discorso cambia, ma questo tipo di utenza non è la maggioranza.
E' evidente: non di soli I7 si nutre l'uomo!
rockroll
10-02-2015, 02:32
a livello generale arm puo' essere in vantaggio solo perche' i sistemi che girano su arm sono ottimizzati per arm mentre x86=windows che si porta dietro m.erda di 20 anni fa, con gente che se la prende quando le si spiega che dovrebbero piantarla di portarsi dietro windows a 32bit nelle nuove release e fare pulizia... Questa e' la situazione. Il giorno che intel e microsoft si svegliano male danno un bel colpo di spugna e si riparte, speriamo che la concorrenza di arm favorisca questo progresso visto che amd ormai e' comatosa.
Punti di vista!
Magari ce lo spieghi perchè il 90% dell'utenza (il 100% della domestica) avrebbe dovuto sentire bisogno assoluto di passare a 64 bit su macchne e sistemi ultimissimi, in ossequio agli introiti Wintel?
Hai una strana idea del "progresso", se lo fai coicidere con le entrate di cassa di suddetta combutta.
Io intanto sto benissimo coi miei 4 ottimi marchingegni "comatosi", e non mi spingo certo oltre Win7 (che vantaggi potrei mai averne?). Mi ritrovo tra i piedi Win7 64 su Notebook perchè qualcuno persegue la sporca politica di comodo del preinstallato forzoso, e sono qui ancora a cercare di capire che vantaggi mi porta questo win7 64 pompato di fuffa rispetto ad un onestissimo XP pro 32 ottimizzato a dovere, oltre ad una serie di problemi di incompatibilità con risorse SW che vorrei ancora sfruttare perchè se mi servono così come sono non vedo ragione di cambiare.
E questo sarebbe progresso?
Il giorno che Wintel si sveglia male e si da sulle proprie palle un bel colpo di spugna autocastrante, mi faccio due risate, o anche tre...
cdimauro
10-02-2015, 06:20
ricordo solo che intel un tempo aveva una licenza arm che poi ha abbandonato
che con gli UTILI che fa in UN GIORNO si può comprare TRE licenze complete arm
che con gli utili di 2 anni si compra il 100% delle azioni arm
quindi se non si butta su arm è perchè non gli conviene o perchè i dirigenti sono scimmie :asd:
La storia non è quella. Intel ricevette la divisione ARM da Digital come contropartita della conclusione di una causa fra i due. Quindi non è che abbia acquistato una licenza ARM "motu proprio" (e nemmeno ci pensava).
L'ha abbandonata dopo qualche anno perché, com'era evidente, era in conflitto col suo core business, in particolare col progetto Atom.
verissimo a livello teorico (e matematico), a livello pratico un po' impossibile :) altrimenti si finisce per confrontare android arm con android x86 che ha cominciato a girare decentemente l'altroieri
Beh, ho entrambi i dispositivi e non mi pare che quest'ultimo se la cavi male. Tutt'altro. ;) Poi bisogna vedere cosa intendi con "girare decentemente".
Nello specifico, il confronto era fra prestazioni e autonomia, per cui dubito che il "girare male" possa rientrarci.
comunque la morte di x86 e/o di intel e' stata presagita un mucchio di volte, e invece non e' mai cambiato un tubo, dubito che la volta che davvero ci sara' uno scrollone non riescano a stare al passo, se non innovano poi cosi' tanto e' solo per mancanza di concorrenza
*
Concordo perfettamente con te e con il tuo interlocutore.
Sono considerazioni validissime, che però i difensori d'ufficio della conbutta Wintel non vorranno sentirsi dire.
Combutta? Ti ricordo che Microsoft per il suo Windows Phone ha scaricato Intel e s'è affidata esclusivamente a Qualcomm. Il suo Surface lo propone con x86 E (congiunzione) ARM.
Per contro, Intel ha tirato fuori Meego, poi Tizen, s'è buttata su Android, e pure cui Chromebook.
That's business.
Dove starebbe la combutta? E cosa sarebbe stato detto di così orribile qui da aver toccato la tua sensibilità sull'argomento?
E' evidente: non di soli I7 si nutre l'uomo!
Ma se ne vendono tanti, e magari tanti uomini ne ha bisogno. Come hanno bisogno pure deli i5, e degli i3.
Con questa filosofia "riduzionista" staremmo ancora al 4004: c'è bisogno di meglio? No: una CPU a 4 bit da pochi Khz basta... anche per far girare il sito di Facebook, no?
Punti di vista!
Magari ce lo spieghi perchè il 90% dell'utenza (il 100% della domestica) avrebbe dovuto sentire bisogno assoluto di passare a 64 bit su macchne e sistemi ultimissimi, in ossequio agli introiti Wintel?
Forse perché l'architettura a 64-bit ha rimosso un grosso limite dell'architettura?
Le tue macchine hanno tutte meno di 4GB di RAM, immagino. Potrebbe benissimo essere così, ma il tuo dominio applicativo sarà molto ridotto.
Hai una strana idea del "progresso", se lo fai coicidere con le entrate di cassa di suddetta combutta.
Per la storiella complottista della combutta vedi sopra: immagino che avrai una fantasiosa spiegazione anche per questo. Chessò, è colpa dei rettiliani, della lobby giudo-masso-comunist-liberista, del gruppo Biiiiiildebbbbbbergggggg, ... (insert your conspiracy theory here, bitte) ...
Io intanto sto benissimo coi miei 4 ottimi marchingegni "comatosi", e non mi spingo certo oltre Win7 (che vantaggi potrei mai averne?).
Dipende da quello che ci fai.
Mi ritrovo tra i piedi Win7 64 su Notebook perchè qualcuno persegue la sporca politica di comodo del preinstallato forzoso,
Ma nessuno ti obbliga: esistono computer, notebook inclusi, che vengono venduti senza s.o., o con una distro Linux, o addirittura con FreeDOS.
Se non vuoi finanziare la multinazionale brutta e cattiva, puoi farlo. Ma devi sbatterti un pochino (nemmeno tanto) a cercare.
e sono qui ancora a cercare di capire che vantaggi mi porta questo win7 64 pompato di fuffa rispetto ad un onestissimo XP pro 32 ottimizzato a dovere, oltre ad una serie di problemi di incompatibilità con risorse SW che vorrei ancora sfruttare perchè se mi servono così come sono non vedo ragione di cambiare.
Reinstalla Windows 7 e vivi felice.
E questo sarebbe progresso?
Decisamente sì. Ma non per te. Hai le tue esigenze? Legittimo. ALTRI hanno le loro esigenze. Legittimo anche questo, o per te è una bestemmia?
Il giorno che Wintel si sveglia male e si da sulle proprie palle un bel colpo di spugna autocastrante, mi faccio due risate, o anche tre...
Eccolo qui il vero motivo: odio preconcetto da fanatico integralista. Tutto molto bello, specialmente per il fatto che stiamo parlando di pezzi di ferraglia (hardware) e roba "aleatoria" (software).
Non hai una causa umanamente più nobile da seguire in cui riversare il tuo odio? Bah...
Punti di vista!
Magari ce lo spieghi perchè il 90% dell'utenza (il 100% della domestica) avrebbe dovuto sentire bisogno assoluto di passare a 64 bit su macchne e sistemi ultimissimi, in ossequio agli introiti Wintel?
Hai una strana idea del "progresso", se lo fai coicidere con le entrate di cassa di suddetta combutta.
Io uso Slackware Linux, come potrai notare dal mio avatar. E' tra le distro più minimaliste del mondo, pensa che il suo "gestore pacchetti" non gestisce nemmeno le dipendenze, ma devi installartele tu a mano.
Nonostante ciò, è totalmente a 64 bit, di default non ci sono nemmeno le multilib; ma, onestamente, non credo che Volkerding faccia parte della combutta Wintel; però se vuoi gli mando una mail per informarmi.
Inoltre, molto umilmente, vorrei ricordarti che l'estensione a 64 bit del set di istruzioni x86 fu introdotta inizialmente da AMD (http://it.wikipedia.org/wiki/AMD64), che non credo faccia parte della citata Wintel, ma forse mi sfugge qualcosa.
Io intanto sto benissimo coi miei 4 ottimi marchingegni "comatosi", e non mi spingo certo oltre Win7 (che vantaggi potrei mai averne?). Mi ritrovo tra i piedi Win7 64 su Notebook perchè qualcuno persegue la sporca politica di comodo del preinstallato forzoso, e sono qui ancora a cercare di capire che vantaggi mi porta questo win7 64 pompato di fuffa rispetto ad un onestissimo XP pro 32 ottimizzato a dovere, oltre ad una serie di problemi di incompatibilità con risorse SW che vorrei ancora sfruttare perchè se mi servono così come sono non vedo ragione di cambiare.
In un supermercato ho visto usare ancora il DOS, che problema c'è? Ognuno utilizza ciò che ritiene più adeguato alle proprie necessità.
E questo sarebbe progresso?
Passare a 64 bit ha permesso, tra le altre cose, di indirizzare un quantitativo di RAM superiore ai 3 GB. Avere più RAM a disposizione, significa poter effettuare meno operazioni di lettura/scrittura dalla memoria di massa, quindi velocizzare l'esecuzione dei programmi, ad esempio. Senza considerare che il consumo di memoria è uno dei parametri che, in teoria, un buon programmatore dovrebbe sempre tenere in considerazione (in questo caso, se volesse supportare i 32 bit, dovrebbe farla stare sotto quella "soglia critica"), anche se il diffondersi di Java e JVM ha fatto dimenticare a molti il concetto di gestione ottimale delle risorse.
Il giorno che Wintel si sveglia male e si da sulle proprie palle un bel colpo di spugna autocastrante, mi faccio due risate, o anche tre...
Microsoft, come ti è già stato fatto notare, non ha un rapporto esclusivo con Intel, tant'è che, ad esempio, ha distribuito parecchi dispositivi con architettura ARM.
Apple, secondo me, potrebbe anche voler solo strappare accordi più vantaggiosi ad Intel, soprattutto considerando che gli ultimi Atom sono davvero prodotti molto interessanti, quindi non vedo perché dovrebbe castrare i suoi stessi computer montando un SoC supportato da zero software nell'ambito PC. Chi vuole un tablet compra un iPad, non un MacBook, o un iMac. L'unico motivo per cui a Cupertino potrebbero davvero fare il passaggio sarebbe un SoC che ha prestazioni analoghe (superiori dubito) rispetto ai prossimi chip Intel, ma con consumi inferiori.
bobafetthotmail
10-02-2015, 07:50
Magari ce lo spieghi perchè il 90% dell'utenza (il 100% della domestica) avrebbe dovuto sentire bisogno assoluto di passare a 64 bit su macchne e sistemi ultimissimi, in ossequio agli introiti Wintel?Non mi risulta che nessuno abbia sentito la necessità.
è solo che se vendi delle macchine che possono montare più di 3 GB di ram fisica sarebbe da ritardati totali castrarle installando un OS a 32 bit che oltre a 3.5 GB non va.
Inoltre, ci sono e ci saranno sempre più applicazioni scritte solo in 64 bit perchè richiedono più ram (e sarebbe anche ora che le applicazioni potessero chiedere più di 3 GB di ram per velocizzare o precaricare o tenere i file temporanei, quando su un PC oramai si trovano 8 GB o più di RAM che stanno lì a cazzeggiare mentre l'applicazione scrive/legge costantemente dei dati temporanei su disco fisso che è tipo mille volte più lento) o perchè chi le fa se ne frega di fare una versione a 32 bit.
Su un 64 bit girano i programmi a 32, su un 32 bit non gira niente a 64 bit.
sono qui ancora a cercare di capire che vantaggi mi porta questo win7 64 pompato di fuffa rispetto ad un onestissimo XP pro 32 ottimizzato a dovere,Intanto Win7 riceve ancora patch di sicurezza e usa la RAM in modi che XP non si sogna neanche tramite precaricamento e robe varie.
Poi certo, puoi usare programmi moderni di creazione di contenuti, praticamente tutti i programmi seri in quell'ambito sono ormai solo a 64 bit, o consigliano caldamente di installare la versione a 64 bit.
oltre ad una serie di problemi di incompatibilità con risorse SW che vorrei ancora sfruttare perchè se mi servono così come sono non vedo ragione di cambiare. Che programmi girano su XP che non girano su windows 7? :mbe: Hai dei gestionali da ditta (scritti coi piedi) nel tuo PC?
Sei sicuro che non sia solo una questione di attivare la modalità di compatibilità di 7 per far girare il programma fingendosi XP o fare altri magheggi?
Hai davvero forte necessità di far girare programmi a 16 bit?
Ginopilot
10-02-2015, 08:28
Al di la dei windows esosi di risorse, non c'e' storia, col tempo e' necessaria sempre maggiore potenza. C'e' sempre qualcosa che puo' avvenire piu' velocemente, in modo piu' gradevole, con interfacce piu' sofisticate.
Basta prendere una cpu di 10 anni fa, metterci attorno hw di ultima generazione e installarci su os e software moderno. Arranchera' e non poco rispetto ad una cpu recente. Ed e' sempre stato cosi'. Ma anche usando os differenti, il discorso e' identico.
Sempre piu' potenza sara' richiesta per visione ed elaborazioni di contenuti video e immagini.
Arm sara' sempre 2-3 passi indietro, intel non ha solo la tecnologia dalla sua parte, ma la potenza economica per fare ricerca, cambiare, evolversi. Quando e se arm dovesse avvicinarsi pericolosamente, prendera' provvedimenti. Basti vedere l'evoluzione di atom. A meno di un cataclisma, non vedo perche' le cose debbano cambiare. Arm non ha nulla di rivoluzionario, quindi non potra' che continuare ad essere una soluzione di ripiego a basso costo.
java è un buon linguaggio con pregi e difetti, è stato piuttosto lungimirante ed ha gettato le basi per nuove forme di programmazione colmando le lacune OO di c++, quindi?
Quindi ribadisco quello che ho detto e che é un dato oggettivo, java é frustrante in termini di performances e trovo curioso che sia spopolato proprio su dispositivi notamente poco potenti a livello hardware dove si dovrebbero prediligere architetture molto piu' legate al codice macchina di basso livello e non linguaggi basati su virtual machine e astrazioni riciclate dal mondo b2b e web dove puoi permetterti server con 32 gb di ram per metterci su 4 istanze che fanno girare 3 webapp.
Android é un sistema ibrido di fatto, il kernel é compilato ma sopra c'é una framework basato su java che per la sua natura ha vari pregi e difetti, per me sono piu' i difetti che i pregi, ma se ci manteniamo sul discorso prettamente "ottimizzazione" e "performances" é una scelta oggettivamente limitante.
D'altra parte basta prendere in mano un terminale android con 2GB di RAM e CPU 4 core a 2GHZ e nell'altra un iphone dual core a 1Ghz con 1GB di RAM o un WP ad esempio per capire quanta differenza fà la piattaforma SW usata sulla stesso hardware.
p.s.
Ho programmato per 4 anni in java quando ero "ragazzo" ed ho un moto x e un nexus 7, giusto per non cominciare con crociate da fanboy
Punti di vista!
Magari ce lo spieghi perchè il 90% dell'utenza (il 100% della domestica) avrebbe dovuto sentire bisogno assoluto di passare a 64 bit su macchne e sistemi ultimissimi, in ossequio agli introiti Wintel?
Hai una strana idea del "progresso", se lo fai coicidere con le entrate di cassa di suddetta combutta.
La modalità 64 bit è stata introdotta da AMD nel lontano 2003 (sembra l'altro ieri ma sono passati 12 anni).
http://en.wikipedia.org/wiki/X86-64
La stessa domanda te la potrei fare sul perché stanno facendo uscire processori ARM a 64.
Ma non è solo una questione di memoria, ad esempio si passa da 6 registri General Purpose a 15, questo rende possibile passare gli argomenti delle funzioni sui registri piuttosto che in memoria, rendendo più veloce il meccanismo della chiamata a funzione.
Non solo, anche la dimensione dei registri è aumentata appunto a 64 bit, questo comporta diversi vantaggi con applicazioni multimediali.
Nota a margine, meccanismi di sicurezza come la randomizzazione degli eseguibili funzionano meglio su spazio di indirizzi a 64 bit: http://en.wikipedia.org/wiki/Address_space_layout_randomization
Io intanto sto benissimo coi miei 4 ottimi marchingegni "comatosi", e non mi spingo certo oltre Win7 (che vantaggi potrei mai averne?). Mi ritrovo tra i piedi Win7 64 su Notebook perchè qualcuno persegue la sporca politica di comodo del preinstallato forzoso, e sono qui ancora a cercare di capire che vantaggi mi porta questo win7 64 pompato di fuffa rispetto ad un onestissimo XP pro 32 ottimizzato a dovere, oltre ad una serie di problemi di incompatibilità con risorse SW che vorrei ancora sfruttare perchè se mi servono così come sono non vedo ragione di cambiare.
E questo sarebbe progresso?
Il giorno che Wintel si sveglia male e si da sulle proprie palle un bel colpo di spugna autocastrante, mi faccio due risate, o anche tre...
Qualche anno fa ci si lamentava di Microsoft più che altro per via della sicurezza dei proprio SO. Da Vista in poi hanno migliorato tantissime cose in quel comparto, per cui si, hanno fatto enormi passi in avanti.
Dopodiché sei OT perché qui si parla di processori e non di SO.
Quando ARM raggiungerà i livelli prestazionali di un i7 (al momento mi sembra il punto di riferimento in ambito desktop) ne riparleremo.
Quindi ribadisco quello che ho detto e che é un dato oggettivo, java é frustrante in termini di performances e trovo curioso che sia spopolato proprio su dispositivi notamente poco potenti a livello hardware dove si dovrebbero prediligere architetture molto piu' legate al codice macchina di basso livello e non linguaggi basati su virtual machine e astrazioni riciclate dal mondo b2b e web dove puoi permetterti server con 32 gb di ram per metterci su 4 istanze che fanno girare 3 webapp.
Android é un sistema ibrido di fatto, il kernel é compilato ma sopra c'é una framework basato su java che per la sua natura ha vari pregi e difetti, per me sono piu' i difetti che i pregi, ma se ci manteniamo sul discorso prettamente "ottimizzazione" e "performances" é una scelta oggettivamente limitante.
D'altra parte basta prendere in mano un terminale android con 2GB di RAM e CPU 4 core a 2GHZ e nell'altra un iphone dual core a 1Ghz con 1GB di RAM o un WP ad esempio per capire quanta differenza fà la piattaforma SW usata sulla stesso hardware.
p.s.
Ho programmato per 4 anni in java quando ero "ragazzo" ed ho un moto x e un nexus 7, giusto per non cominciare con crociate da fanboy
non ho mai detto che java fosse il linguaggio di programmazione definitivo. Non dimenticare che android gira su n configurazioni diverse, sarebbe drammatico se un iphone avesse la reattività di un device android con l'overhead che si porta dietro, ma non è una semplice questione di linguaggio ma anche di frammentazione hardware...
non ho mai detto che java fosse il linguaggio di programmazione definitivo. Non dimenticare che android gira su n configurazioni diverse, sarebbe drammatico se un iphone avesse la reattività di un device android con l'overhead che si porta dietro, ma non è una semplice questione di linguaggio ma anche di frammentazione hardware...
La frammentazione hardware c'è proprio a causa di Java.
non ho mai detto che java fosse il linguaggio di programmazione definitivo. Non dimenticare che android gira su n configurazioni diverse, sarebbe drammatico se un iphone avesse la reattività di un device android con l'overhead che si porta dietro, ma non è una semplice questione di linguaggio ma anche di frammentazione hardware...
sta storia della frammentazione hardware é una idiozia che a forza di essere ripetuta sui forum sta diventato una verità. La frammentazione semmai é SW, degli N Api level di android, ma no é nemmeno quello che influisce sulla reattività del sistema, almeno non totalmente.
L'OS che ha il maggior problema di frammentazione HW é per antonomasia Windows che gira su CPU Intel e AMD in 1000 declinazioni differenti eppure i SW se sono scritti bene girano bene, nonostante l'OS stesso a volte ha inciso negativamente sulle prestazioni generali del sistema.
Su android anche se ti sforzi di scrivere un'applicazione in maniera corretta sarai sempre limitato dallo strato SW.
Pure rimanessero allo step attuale Intel ha un vantaggio tecnologico mostruoso che si traduce in chip incredibilmente performanti e parsimoniosi.
E cosa ti fa pensare che al concorrenza resti uno step indietro se Intel si fermasse allo step attuale ?
Il problema sta tutto li, a parità di tecnologia di produzione dei chip vengono meno alcuni dei vantaggi attualmente a favore di Intel.
Ma te li sei visti i portatili con gli schermoni da 8-12 ore? Quando fatica ad arrivarci uno smartphone!?!?
Eh! Ma che confronti fai?
Hai presente la differenza a livello di batterie tra notebook e smartphone ? :read:
Si parla di roba da 40Wh o più per i notebook contro roba che è tanto se arriva a 2..3Wh per gli smartphone. :rolleyes:
Senza contare che di solito in una situazione considerata di "uso tipico" un notebook sfrutta la cpu poco o niente ed il grosso del consumo è legato ad altre componenti.
Un portatile con ARM? Per farci girare cosa? E' come una macchina senza ruote :|
Dipende da quale software utilizzi, inoltre considera che per ora nessuno ha prodotto cpu con set d'istruzioni ARM "per notebook", il target attuale al massimo arriva a tablet o sistemi embedded che devono funzionare con raffreddamento passivo e dove c'e' molta più enfasi sui bassi consumi che sulle prestazioni, quelle basta che siano più elevate degli altri concorrenti ARM senza sforare con i consumi (non a caso Qualcomm ha avuto guai per i consumi eccessivi dei primi SnapDragon 810).
cdimauro
10-02-2015, 17:35
Veramente già da tempo ci sono i Chromebook che montano chip ARM.
Pier2204
10-02-2015, 18:07
Veramente già da tempo ci sono i Chromebook che montano chip ARM.
? Quello che ho visto io, un Samsung Intel Celeron N2840 (Bay Trail) montava appunto un Intel, credo che anche HP montasse Intel...mi sfugge la marca che monta un ARM... anche perché in rete ci sono mille mila guide per rasare il SO e installare Windows
cdimauro
10-02-2015, 18:09
Ecco il primo che ho trovato (http://www.samsung.com/uk/consumer/pc-peripherals/chrome-devices/chrome-devices/XE303C12-A01UK), sempre Samsung.
Ma ce ne sono altri.
Beh, ho entrambi i dispositivi e non mi pare che quest'ultimo se la cavi male. Tutt'altro. ;) Poi bisogna vedere cosa intendi con "girare decentemente".
anche io, ma e' cosi' in tempi recenti e non si puo' negare che android x86 abbia avuto una storia travagliata rispetto ad arm. Funziona? Si', potrebbe funzionare meglio, a mio avviso certamente.
Eccolo qui il vero motivo: odio preconcetto da fanatico integralista. Tutto molto bello, specialmente per il fatto che stiamo parlando di pezzi di ferraglia (hardware) e roba "aleatoria" (software).
Non hai una causa umanamente più nobile da seguire in cui riversare il tuo odio? Bah...
mea culpa, ho voluto lanciare l'esca e subito qualcuno ha abboccato per continuare la discussione dell'altro thread :D
MiKeLezZ
10-02-2015, 18:32
Eh! Ma che confronti fai?
Hai presente la differenza a livello di batterie tra notebook e smartphone ? :read:
Si parla di roba da 40Wh o più per i notebook contro roba che è tanto se arriva a 2..3Wh per gli smartphone. :rolleyes:
Senza contare che di solito in una situazione considerata di "uso tipico" un notebook sfrutta la cpu poco o niente ed il grosso del consumo è legato ad altre componenti.
http://en.wikipedia.org/wiki/Chromebook#Chromebook_models
HP Chromebook ARM Exynos 5 Dual 12" : 6 hours
HP Chromebook INTEL Celeron 2955U 14" : 9 hours
:|
cdimauro
10-02-2015, 18:59
anche io, ma e' cosi' in tempi recenti e non si puo' negare che android x86 abbia avuto una storia travagliata rispetto ad arm. Funziona? Si', potrebbe funzionare meglio, a mio avviso certamente.
Sì, ha avuto una storia travagliata perché Intel ha dovuto provvedere a realizzare tutto in casa per la sua architettura, ma è già da tempo che funziona bene.
Anzi, con la versione a 64-bit di Android, la situazione si è ribaltata. E mi fermo qui perché non posso aggiungere altro.
mea culpa, ho voluto lanciare l'esca e subito qualcuno ha abboccato per continuare la discussione dell'altro thread :D
No, non è colpa tua. L'utente in questione ha fatto tutto da solo. Ed è ben noto comportarsi allo stesso modo da parecchio tempo ormai. Non perde occasione per gettare veleno contro le multinazionali che ha bollato come "cattive". Come se ne esistessero di virtuose...
Riguardo al thread, faccio notare che le dichiarazioni rilasciate a BusinessInsider sono state ingigantite dall'articolista per far passare cose che non sono state detto. Invito a leggere le parti originali, tralasciando quello che vi è stato ricamato sopra.
CrapaDiLegno
10-02-2015, 20:10
Dovrebbe essere un piacere discutere con qualcuno che capisce qualcosa, e invece...
1) efficienza != costi.
efficienza diversa dal consumare poco perché hai un processo produttivo che costa il quadruplo ma ti permette di fare il transistor più bello.
ARM combina costi e efficienza, per cui per ARM efficienza = bassi costi.
Per Intel efficienza = costi altissimi (insostenibili, 3.6+4,2 miliardi persi nel settore mobile). Chiamali pure "investimenti". Non lo sono perché questi miliardi non capitalizzano un bel nulla. Slo il tentare di farsi notare da probabili clienti. Che molleranno Intel appena il prezzo del SoC sarà quello corretto.
2) ma i 22nm di Intel non erano equivalenti ai 28nm delle altre fonderie?
Mai detto né sostenuto nulla di simile
E qui arrivano le solite illazioni che ami rilanciare continuamente quando parli di Intel.
Quali illazioni? Intel lo ha già fatto ed è stato provato. Nessuna illazione. Tutto vero e provato: Intel per sotterrare la concorrenza ha usato tattiche ricattatorie su clienti e distributori. Io ho detto che oggi non può più neanche volendo. Detto qualcosa di sbagliato? Ti faccio un disegnino così capisci meglio?
Mentre quando nVidia vende schede video con caratteristiche tecniche diverse da quelle reali, ti eserciti nel triplo salto mortale carpiato all'indietro pur di difenderla disperatamente...
Mentre nvidia fa le sue porcate e viene accusata invece di tutt'altro. Con gente che invece di puntare dritto al problema, cerca inutilmente di denigrare il prodotto che purtroppo per loro funziona come deve.
Se vuoi ti faccio un disegnino anche qui.
Peccato che tutte queste macchine virtuali alla fine devono generare codice binario, che è quello che gira realmente. E lì mi pare che contino UN POCHINO le prestazioni, no?
Prestazioni != Compatibilità.
Se i tre punti erano mobile/desktop/server, allora c'è qualcosa che non quadra...
I tre punti erano, potenza di calcolo, efficienza e costi.
L'estrapolazione e stravolgimento del senso di quello che intendevo questa volta ti è venuta proprio male. Italiano, questo sconosciuto.
Le shakerate sono tipiche di chi ama parlare di cose che non conosce.
Invece non capire quello che gli altri scrivono, o interpretarlo come meglio si credo (o può a questo punto) dimostra tutta la tua capacità di ragionamento e conoscenza dell'argomento.
Buona serata
cdimauro
10-02-2015, 20:53
Dovrebbe essere un piacere discutere con qualcuno che capisce qualcosa, e invece...
O, invece, non ti piace essere continuamente corretto.
efficienza diversa dal consumare poco perché hai un processo produttivo che costa il quadruplo ma ti permette di fare il transistor più bello.
Dove l'hai visto che costa il quadruplo? Il 22nm è stra-rodato, e integra la seconda generazione di FinFET.
ARM combina costi e efficienza, per cui per ARM efficienza = bassi costi.
Cfranco t'aveva scritto questo:
"C' è un test fatto su un sito concorrente, la conclusione è che in idle gli ARM consumano meno, ma sotto carico sono gli Intel ad essere più efficienti."
I costi non c'entrano con l'efficienza, a meno che non parliamo di efficienza del processo produttivo = rese e caratteristiche del silicio.
D'altra parte Cfranco rispondeva a questa tua frase:
"Intel competerà finchè riuscirà a controbilanciare l'inefficienza della sua architettura con un magigor numero di transistor messi nella stessa area con un PP più avanzato. "
E tu rispondevi a LCHM che aveva scritto questo:
"Intel avrà cpu più performanti solo se riuscirà a stare in testa in termini di tecnologia produttiva e se riuscirà a mantenere la consistenza numerica del suo zoccolo duro (software per x86 non portabile)."
Dunque il concetto di efficienza mi pare chiaro: prestazioni. Che poi risulta essere, "casualmente", l'argomento della notizia...
Per Intel efficienza = costi altissimi (insostenibili, 3.6+4,2 miliardi persi nel settore mobile). Chiamali pure "investimenti". Non lo sono perché questi miliardi non capitalizzano un bel nulla. Slo il tentare di farsi notare da probabili clienti. Che molleranno Intel appena il prezzo del SoC sarà quello corretto.
Vedremo, ma questo non c'entra assolutamente nulla con la notizia e l'argomento della discussione. Infatti si parla di ambito desktop e notebook, dove Intel NON svende i suoi chip, ma l'esatto contrario.
Mai detto né sostenuto nulla di simile
Ne abbiamo già parlato in passato in qualche thread. Qualcuno (non ricordo adesso sei fossi stato tu) aveva postato il link a un articolo in cui si confrontava il processo a 22nm di Intel con quello a 28nm di altre fonderie (TSMC, mi pare). Da lì sono nate delle discussioni, alle quali hai partecipato anche tu.
Comunque se ho tempo faccio qualche ricerca e riporto il link alla discussione, ma adesso ho altro da fare.
Quali illazioni? Intel lo ha già fatto ed è stato provato. Nessuna illazione. Tutto vero e provato: Intel per sotterrare la concorrenza ha usato tattiche ricattatorie su clienti e distributori. Io ho detto che oggi non può più neanche volendo. Detto qualcosa di sbagliato? Ti faccio un disegnino così capisci meglio?
Finché parli al passato non c'è problema. Ma quando scrivi una frase come questa:
"Quindi le famose manovre sporche di Intel qui non sono applicabili."
non lo è più.
Un conto è riportare un fatto del passato, e un altro è infilarlo in una discussione che parla del presente. Sono due cose che non c'entrano nulla, per cui o si tratta di roba insensata oppure di illazioni.
Mentre nvidia fa le sue porcate e viene accusata invece di tutt'altro. Con gente che invece di puntare dritto al problema, cerca inutilmente di denigrare il prodotto che purtroppo per loro funziona come deve.
Se vuoi ti faccio un disegnino anche qui.
Più che un disegnino potresti riportare le specifiche della scheda in questione, PRIMA e DOPO lo scandalo.
Prestazioni != Compatibilità.
Prima di tutto qui s'è parlato di prestazioni. Vedi sopra per maggiori chiarimento.
Secondo, spiegami cosa c'entra la compatibilità con una macchina virtuale come quella utilizzata da Android, tanto per prendere una delle 3 che hai citato e per i quali c'è maggior discussione in merito. Scendi pure quanto vuoi nei dettagli tecnici.
I tre punti erano, potenza di calcolo, efficienza e costi.
L'estrapolazione e stravolgimento del senso di quello che intendevo questa volta ti è venuta proprio male. Italiano, questo sconosciuto.
Riportiamo l'intero paragrafo in questione, così tagliamo la testa al toro:
"Oggi i mercati mobile/desktop/server sono separati per ovvie ragioni storiche e altissime dipendenze da SW creati in trent'anni di sviluppo. Ma sono cose che stanno per essere superate: Apple ha il suo sistema di sviluppo trasversale, MS ha .NET, Android ha la Dalvik e derivate. Quello che c'è sotto il cofano conta sempre meno: conta quello che è in grado di fare, quanto consuma e sopratutto quanto costa.
Il primo punto è vinto da Intel. Il secondo per ora è ad armi pari. Il terzo è vinto da ARM a mani basse. Miscelate il tutto, shekerate, mettere in fresco 3 o 4 anni e vedremo cosa accadrà. "
Dunque a questo punto non ti riferivi ai 3 mercati, ma a quello che hai scritto dopo "Quello che c'è sotto il cofano conta sempre meno".
Invece non capire quello che gli altri scrivono, o interpretarlo come meglio si credo (o può a questo punto) dimostra tutta la tua capacità di ragionamento e conoscenza dell'argomento.
Buona serata
Non prendo lezioni da chi non sa nemmeno cosa sia un coprocessore e un'unità d'esecuzione.
Per il resto, vedi sopra. E, al solito, saranno gli altri utenti a capire come stanno le cose.
CrapaDiLegno
10-02-2015, 21:22
Mi piace l'idea che la gente pensi che Intel è indistruttibile perché ha e avrà sempre la CPU più potente sul mercato.
Si vede che in questi 4 anni avete dormito e non vi siete accorti che la gente ha sempre meno bisogno di potenza bruta. Tutti i dispositivi consumer, anche quello ARM based, hanno già sufficiente potenza di elaborazione per le operazioni di tutti i giorni.
Prima che la moda tablet scoppiasse c'erano i netbook. Chi se li ricorda? Eppure erano Intel based. Avevano una potenza di elaborazione schifosissima, non diversa da quella che mette a disposizione ARM oggi. Però sono andati via come il pane. Poi sono arrivati i tablet ARM based e la festa per Intel è finita (quasi in tragedia, visto la mole di soldi che ha dovuto spendere per tentare di recuperare).
Le vostre considerazioni sull'uso obbligato di una CPU x86 si basano essenzialmente su 2 punti:
1. Potenza di calcolo esorbitante
2. Necessità di compatibilità = Windows.
Il punto uno è presto risolto, dato che la gente comune non usa il PC per convertire video o elaborare RAW da 20MB ciascuno. E infatti ha trovato prima i netbook e poi i tablet, oggi perfino i mega smarphone, come strumenti adeguati per fare le proprie cose.
Il punto due muore da solo quando la gente ha capito che deve pensare ai servizi che necessita invece del programma che gli permette di raggiungerli.
Ed ecco la questione compatibilità trasversale su più dispositivi (che Intel e Microsoft non avevano mai e poi mai affrontato prima dell'arrivo di iOS e Android, da lì la fine del patto Wintel che nessuno sano di mente può negare sia esistito). Java (e le VM in generale)sono un male per qanto riguardale prestazioni. Non ci sono dubbi. Ma quando le prestazioni generali diventano sufficienti per coprire la realizzazione dei servizi di base richiesti, la priorità non è fare andare Kraken (un bench a caso) a 20.000 punti invece di 10.000, ma quello di far andare il servizio su 20.000 dispositivi invece di 10.000.
Oggi vedete la scelta di Google di usare una VM come negativa, sopratutto perché ARM ha basse prestazioni. Ma la mossa negli anni si potrà rivelare molto furba. Apple fece la scelta di legarsi prima alla famiglia 68000, poi a quella PPC, ora ad Intel. Ad ogni passaggio una tragedia per quanto riguarda lo sviluppo SW. Google sa che se domani ARM finisce il suo ruolo di trainatore del mercato mobile e subentra MIPS o la stessa architettura x86 non gliene fregherebbe nulla. A lei interessa raggiungere gli utenti con i suoi servizi. Ed è anche interesse di tutti cloro che sviluppano per Android. Infatti di app scritte che usano le API native sono poche.
MS ha fatto una scelta analoga. Queste VM sono una tragedia lo dicono tutti, poi comunque tutti felici di programmare con .NET e lasciarsi alle spalle i tempi delle MFC. Perché anche MS ha capito da tempo che il mondo non va più solo nella direzione x86. E oggi può presentarsi (lei e i suoi sviluppatori) con i suoi servizi su desktop/tablet/smarphone e console senza preoccuparsi di quello che contengono.
Apple è da tempo che è all'opera per unire i due mondi desktop e mobile.
Quindi, x86 vivrà? Ma è ovvio. Vi saranno milioni di i5/i7 venduti ai professionisti che ne hanno bisogno. E di Xeon nel mercato server ad alta potenza/workstation.
Ma vi saranno anche centinaia di milioni di dispositivi che pian piano di "ibridizzeranno" passando da x86 a ARM senza che l'utente neanche se ne accorga. E anche nel mondo server c'è spazio per architetture ARM. E Intel lo sa, altrimenti non se ne sarebbe uscita cercando di anticipare la concorrenza con l'Avoton.
Chiunque pensa che la battaglia del futuro sarà basata sulla potenza bruta non deve aver seguito l'andamento del mercato negli ultimi anni
Chi ha postato prima il grafico dei fatturati delle industrie di semiconduttori l'ha fatto solo guardando dove era la linea blu (quella piatta). Le altre che stanno più in basso invece crescono. E neanche poco. Qualcomm nel 2014 ha fatturato più di 25 miliardi (rispetto ai meno di venti miliardi del 2013). Metà di Intel. Uno può benissimo dire, ma gli utili di Intel sono molto più alti. Certo. Gli utili netti però non così tanto, dato che le spese per le fabbriche Intel li deve sostenere mentre Qualcom ha già pagato il fornitore quando mostra i suoi numeri. Qualcomm guadagna molto meno per ogni singolo pezzo, ma vende 10 volte il numero dei pezzi di Intel.
Insieme a Qualcomm c'è Samsung, una miriade di altri produttori minori (Marvell, Broadcomm, ST, Apple e nvidia) e tutti i produttori cinesi che si stanno affacciando con prodotti a bassissimo prezzo che alla gente bastano e avanzano e con cui Intel non può competere nei prezzi neanche rispolverando il primo Atom. Si parla di 2 miliardi di chip ARM based venduti. 2 miliardi! Sufficienti a mantenere attiva una o due fabbriche senza problemi. Che è quello che allarma Intel più di ogni altra cosa. Fab che sono in grado di fare concorrenza ai suoi PP. PP che per lei diventano sempre più costosi perché il numero di pezzi che vende diminuisce ogni anno (e deve cercare clienti che non siano concorrenti e siano disposti a pagare... molto difficile).
Dei miliardi di dispositivi ARM che oggi sono venduti, solo una piccola parte è in competizione con Intel. Intel non ha modo di entrare nel mercato dove ARM domina da eoni. Non ha i mezzi tecnici e là dove li ottiene sono a discapito dei costi insostenibili per questi mercati. Viceversa ARM da qualche anno ha cominciato a penetrare nel mercato di Intel. Piano. Poco alla volta. Sempre più dispositivi passano dall'essere x86 based ad ARM based. Là dove i due punti elencati sopra (forza bruta e compatibilità con Windows) non servono, ARM è la scelta migliore. Se non per l'efficienza, per i costi ineguagliabili dai processi produttivi che Intel deve usare per raggiungerla.
Tutti che parlano di workstation e i7. Negli Stati Uniti è esplosa un nuovo mercato: quello dei Chrome Book. E guarda caso, se all'inizio tutti montavano processori Intel, ora si affacciano anche quelli con ARM. Vanno meno? Sicuro. Stessa autonomia? Sì, più o meno. Ma costano meno! In un dispositivi nato per essere il più economico possibile, il costo del SoC è importante. Più delle prestazioni. E ricordo che oggi Intel è là dentro perché "foraggia" gli assemblatori. Quando la politica della spesa folle per ottenere nulla cesserà (perché deve cessare, quasi 8 miliardi in 2 anni per vendere una manciata di processori non ha alcun senso neanche per gli investitori e azionisti) Intel avrà un bel da farse per riuscire a convincere che quei MFlops a parità di W in più che ha valgono tutti quei soldi. Non solo agli assemblatori, ma anche ai potenziali clienti.
Sarà una lotta continua, molto diversa da quella vissuta negli anni passati dove i pochi squali sono stati mangiati uno ad uno perché ognuno aveva una architettura diversa che non poteva mantenere in autonomia nel mercato di nicchia che si era ritagliato contro il colosso. Sarà un logorio, che là dove verrà arginato costerà moltissimo ad Intel in forma economica, e dove non ci riuscirà costerà in forma di vendite perse.
Certo che Intel non fallirà. Ma è quasi certo che il ruolo di x86 nel mondo dell'informatica sarà rivisto. E più il livello si prestazioni minimo garantito dai minuscoli SoC ARM si alza peggio diventerà perché basterà sempre a più persone che nel frattempo si sarà liberata dal giogo di Windows.
CrapaDiLegno
10-02-2015, 21:49
O, invece, non ti piace essere continuamente corretto.
Non da uno che fa finta (spero per lui) di non capire quello che scrivo. Sembra una continua presa per i fondelli la tua.
Dove l'hai visto che costa il quadruplo? Il 22nm è stra-rodato, e integra la seconda generazione di FinFET.
Lo vedo dai conti di Intel. 4.2 miliardi per 40 milioni di pezzi. Forse 4 volte è ancora poco.
Cfranco t'aveva scritto questo:
:confused:
Hai deciso tu che l'argomento del giorno sono le prestazioni e non l'efficienza intesa come prestazioni/Watt/costi?
Comunque se ho tempo faccio qualche ricerca e riporto il link alla discussione, ma adesso ho altro da fare.
Sono buono e ti faccio risparmiare tempo che puoi investire in un buon libro di comprensione dell'italiano. Non ho mai sostenuto che i nm di Intel fossero falsi.
Finché parli al passato non c'è problema. Ma quando scrivi una frase come questa:
"Quindi le famose manovre sporche di Intel qui non sono applicabili."
non lo è più.
Prima di tutto diventa un problema per chi?
In secondo luogo la frase è quella, è semplice, non contraddice il passato e non fa riferimento ad un possibile futuro. Leggi piano piano con me e cerca di comprendere:
Le-famose-manovre-sporche-di-Intel (quelle passate, quelle documentate, compreso fino a qui?) qui (oggi, in questo contesto, in questa situazione, sempre tutto chiaro o devo ripetere?) non-sono-applicabili (NON si possono ripetere, non ci sono le stesse condizioni).
Inutile che fai il negazionista. Intel è quello che ha fatto nella sua storia. Costellata non solo di circuiti.
E come tutte le cose, nessuno può negare che si ripeta. Anche se ti dà fastidio o ti crea "problemi", io penso e deduco quello che voglio. Dico che può ancora. Non è una accusa se è questo che ti crea "problemi". Poi comunque ci sono sempre bravi insegnanti migliori di me che possono aiutarti a comprendere il significato delle parole.
Un conto è riportare un fatto del passato, e un altro è infilarlo in una discussione che parla del presente. Sono due cose che non c'entrano nulla, per cui o si tratta di roba insensata oppure di illazioni.
E perché mai, scusa? Non posso supporre che quello che è avvenuto in passato non possa accadere ancora? Cosa me lo impedisce? E sopratutto cosa ti dà questa certezza che non possa accadere?
Oltre che all'italiano dovresti anche fare un po' di ripasso di storia, per capire come spesso le cose non capitano mai una volta sola e solo i beoti poi si meravigliano dicendo "un'altra volta??".
Più che un disegnino potresti riportare le specifiche della scheda in questione, PRIMA e DOPO lo scandalo.
Vediamo... 4GB di memoria prima dello scandalo.. sì, la scheda ha 4GB di RAM anche dopo.... 226GB/s di Banda.. vediamo... sì, ha 226GB/s di banda dopo lo scandalo (per solo 3.5 di RAM, ma non c'è scritto da nessuna parte diversamente), 64 ROPs , 56 ROPs.. no qui ha sbagliato, ha rubato ROPs. Indubbio.
Però vediamo.. prima dello scandalo il test di Anantech fatto a 1K, 2K e 4K.. la scheda si comporta come o meglio della 290X.. dopo lo scandalo.. sì, mi pare si comporti ancora allo stesso modo...
Torno alla convinzione originaria: il problema non sono le prestazioni a cui molti si sono aggrappati per sostenere lo scandalo, ma alla "furberia" di nvidia. Puoi essere incazzato quanto vuoi e con ragione perché ha tentato di fregarti, ma non puoi cercare la giustificazione nelle prestazioni della scheda che fa esattamente quello che deve e che è stato registrato a tutti i siti come tale. Se poi vuoi usare l'AA 8x a 4K per dimostrare che la scheda va in ginocchio, be', il problema a quel punto non ce l'a certo la scheda.
Anche perché in passato proprio AMD ha venduto schede che stutteravano in modalità di funzionamento normali e queste schede non erano castrate oltre alle specifiche date. Cioè lavoravano male a piene specifiche. Che non so se sia meglio. Quindi imbastire un'argomentazione riguardante le prestazioni non ha alcun senso. Soprattutto da chi ha digerito le schede AMD sopra citate.
Secondo, spiegami cosa c'entra la compatibilità con una macchina virtuale come quella utilizzata da Android, tanto per prendere una delle 3 che hai citato e per i quali c'è maggior discussione in merito. Scendi pure quanto vuoi nei dettagli tecnici.
A far girare Android anche sulla tua amata architettura x86? Comunque vedi post precedente.
Riportiamo l'intero paragrafo in questione, così tagliamo la testa al toro: [...]
Dunque a questo punto non ti riferivi ai 3 mercati, ma a quello che hai scritto dopo "Quello che c'è sotto il cofano conta sempre meno".
Bravo, vedi che se ti impegni riesci ad arrivare a comprendere le cose senza bisogno di aiuto?
Non prendo lezioni da chi non sa nemmeno cosa sia un coprocessore e un'unità d'esecuzione.
Per il resto, vedi sopra. E, al solito, saranno gli altri utenti a capire come stanno le cose.
No no, non prendere lezioni da nessuno che vai bene così. Hai capacità di comprensione oltre alla media, non ci sono dubbi.
Quanto tempo perso... e so già che me ne pentirò.
A me continua a sembrare assurdo pensare che un'azienda come Intel sia fossilizzata solo su x86.
Soprattutto ricordando articoli dei mesi scorsi in cui si diceva che stessero addirittura pensando di comprarsi tutta MediaTek.
Che poi al 90% dell'utenza comune non serva un i7 si sa da anni, non è una novità di ora.
A me continua a sembrare assurdo pensare che un'azienda come Intel sia fossilizzata solo su x86.
Soprattutto ricordando articoli dei mesi scorsi in cui si diceva che stessero addirittura pensando di comprarsi tutta MediaTek.
Che poi al 90% dell'utenza comune non serva un i7 si sa da anni, non è una novità di ora.
Per quello c'è Atom.
Per quello c'è Atom.
Oggi sì, ovviamente. Ma sempre x86 è. Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali), chi dice che Intel non abbia un piano B?
Passo e chiudo, che forse domani ci sarà il nuovo papiro di Di Mauro, e mica voglio rubare spazio :D
Hai deciso tu che l'argomento del giorno sono le prestazioni e non l'efficienza intesa come prestazioni/Watt/costi?
L'articolo parla di processori ARM che possano sostituire gli Intel nei desktop/notebook.
Tu di cosa stai parlando?
Ad Apple conviene economicamente? Forse si. Se ti fermi alla sola fornitura di processori.
Ma quanti ne vende poi?
Quanto perde in prestazioni?
Ad oggi Intel sforna processori general purpose decisamente più potenti.
A livello di consumi Broadwell dimostra di essere molto efficiente.
Ripeto, tu di cosa stai parlando?
cdimauro
10-02-2015, 22:54
Mi piace l'idea che la gente pensi che Intel è indistruttibile perché ha e avrà sempre la CPU più potente sul mercato.
Nessuno ha sostenuto questa tesi.
Si vede che in questi 4 anni avete dormito e non vi siete accorti che la gente ha sempre meno bisogno di potenza bruta. Tutti i dispositivi consumer, anche quello ARM based, hanno già sufficiente potenza di elaborazione per le operazioni di tutti i giorni.
Prima che la moda tablet scoppiasse c'erano i netbook. Chi se li ricorda? Eppure erano Intel based. Avevano una potenza di elaborazione schifosissima, non diversa da quella che mette a disposizione ARM oggi.
Che da tempo non è più sufficiente all'uso normale. Ho un netbook con Atom e un sub-notebook con AMD C-50, ed entrambi fanno una fatica immane ad aprire la pagina di GMail e Facebook, tanto per citare quelle più comunemente utilizzate.
D'altra parte è normale che sia così: non è soltanto l'hardware a spingersi in avanti, ma anche il software aumentando di complessità.
Questo è anche il motivo per cui "casualmente" sia Google sia Facebook rilasciano applicazioni per poter fruire i loro servizi su dispositivi con hardware più limitato.
Però sono andati via come il pane.
E se ne sono andati perché la moda è finita.
Poi sono arrivati i tablet ARM based e la festa per Intel è finita (quasi in tragedia, visto la mole di soldi che ha dovuto spendere per tentare di recuperare).
E' finita a causa della moda, e come tutte le mode, quando passa, si torna alla normalità: il mercato dei PC è, infatti, già in ripresa, e da un po' di mesi ormai.
Le vostre considerazioni sull'uso obbligato di una CPU x86 si basano essenzialmente su 2 punti:
1. Potenza di calcolo esorbitante
2. Necessità di compatibilità = Windows.
Il punto uno è presto risolto, dato che la gente comune non usa il PC per convertire video o elaborare RAW da 20MB ciascuno. E infatti ha trovato prima i netbook e poi i tablet, oggi perfino i mega smarphone, come strumenti adeguati per fare le proprie cose.
Ma anche no: vedi sopra. Web = prestazioni su singolo core/thread. Aprire una pagina web su un iPad dotato di A8X che ha soltanto due core garantisce un'esperienza d'uso ben diversa rispetto a qualunque altro tablet che fa uso di uno dei tanti SoC che fanno uso di ben 8 core...
Il punto due muore da solo quando la gente ha capito che deve pensare ai servizi che necessita invece del programma che gli permette di raggiungerli.
Infatti la gente continua ad affidarsi a Windows e alle sue applicazioni.
Ed ecco la questione compatibilità trasversale su più dispositivi (che Intel e Microsoft non avevano mai e poi mai affrontato prima dell'arrivo di iOS e Android, da lì la fine del patto Wintel che nessuno sano di mente può negare sia esistito).
Veramente è da una vita che la prima fornisce processori ad aziende che producono dispositivi fra i più disparati (inclusi s.o.), mentre la seconda non soltanto ha realizzato la sua versione di Windows per architetture diverse (oltre a x86 e x64: Alpha, Itanium, ARM, PowerPC, MIPS, e perfino Hitachi SH-4), ma pure per dispositivi diversi (dalle console agli HPC).
Dunque di che patto stai parlando?
Java (e le VM in generale)sono un male per qanto riguardale prestazioni. Non ci sono dubbi. Ma quando le prestazioni generali diventano sufficienti per coprire la realizzazione dei servizi di base richiesti, la priorità non è fare andare Kraken (un bench a caso) a 20.000 punti invece di 10.000, ma quello di far andare il servizio su 20.000 dispositivi invece di 10.000.
Oggi vedete la scelta di Google di usare una VM come negativa, sopratutto perché ARM ha basse prestazioni. Ma la mossa negli anni si potrà rivelare molto furba.
Prova a scrivere un browser interamente in Java, e... a usarlo. Anche fra un po' di anni. E poi ne riparliamo.
Se fosse come dici tu nessuno scriverebbe applicazioni native, e si sarebbero buttati tutti sulle piattaforme basate su macchine virtuali.
Apple fece la scelta di legarsi prima alla famiglia 68000, poi a quella PPC, ora ad Intel. Ad ogni passaggio una tragedia per quanto riguarda lo sviluppo SW. Google sa che se domani ARM finisce il suo ruolo di trainatore del mercato mobile e subentra MIPS o la stessa architettura x86 non gliene fregherebbe nulla. A lei interessa raggiungere gli utenti con i suoi servizi. Ed è anche interesse di tutti cloro che sviluppano per Android. Infatti di app scritte che usano le API native sono poche.
Riporti nuovamente una falsità che è stata smentita persino da ARM con un'analisi (ai danni di Intel) che ha pubblicato qualche mese fa.
Chissà come mai ARM abbia sentito questo gran bisogno d'intervenire se, come dici tu, le applicazioni native sono poche...
MS ha fatto una scelta analoga. Queste VM sono una tragedia lo dicono tutti, poi comunque tutti felici di programmare con .NET e lasciarsi alle spalle i tempi delle MFC. Perché anche MS ha capito da tempo che il mondo non va più solo nella direzione x86. E oggi può presentarsi (lei e i suoi sviluppatori) con i suoi servizi su desktop/tablet/smarphone e console senza preoccuparsi di quello che contengono.
Apple è da tempo che è all'opera per unire i due mondi desktop e mobile.
Peccato che, al contrario di quello che affermi, sia Microsoft sia Apple abbiano investito su linguaggi & piattaforme manager MOLTI ANNI PRIMA che si facesse viva l'esigenza di supportare dispositivi (e scenari) diversi.
Basti prendere le date di introduzione di .NET e Cocoa per dimostrare che quanto hai riportato sia del tutto falso: rispettivamente 2002 e 1993 (visto che affonda le sue radici in NextStep).
Ma dei due soltanto il primo è (sulla carta) multipiattaforma, perché con Cocoa le applicazioni rimangono native (e infatti Apple ha fatto uso da tempo dei cosiddetti "universal binary" per le applicazioni; ma sempre binari rimangono, e legati a precise architetture).
Quindi, x86 vivrà? Ma è ovvio. Vi saranno milioni di i5/i7 venduti ai professionisti che ne hanno bisogno. E di Xeon nel mercato server ad alta potenza/workstation.
Ma vi saranno anche centinaia di milioni di dispositivi che pian piano di "ibridizzeranno" passando da x86 a ARM senza che l'utente neanche se ne accorga. E anche nel mondo server c'è spazio per architetture ARM. E Intel lo sa, altrimenti non se ne sarebbe uscita cercando di anticipare la concorrenza con l'Avoton.
Chiunque pensa che la battaglia del futuro sarà basata sulla potenza bruta non deve aver seguito l'andamento del mercato negli ultimi anni
Incluso il continuo migliorare delle prestazioni di ARM, che "casualmente" di recente ha prestato l'A72 che sulla carta ha il doppio di prestazioni rispetto al precedente modello.
E questo perché la potenza bruta non è importante anche per gli utenti comuni (perché sarà nelle loro mani che finiranno i dispositivi che monteranno l'A72, esattamente avviene oggi coi modelli attuali).
Chi ha postato prima il grafico dei fatturati delle industrie di semiconduttori l'ha fatto solo guardando dove era la linea blu (quella piatta). Le altre che stanno più in basso invece crescono. E neanche poco. Qualcomm nel 2014 ha fatturato più di 25 miliardi (rispetto ai meno di venti miliardi del 2013). Metà di Intel. Uno può benissimo dire, ma gli utili di Intel sono molto più alti. Certo. Gli utili netti però non così tanto, dato che le spese per le fabbriche Intel li deve sostenere mentre Qualcom ha già pagato il fornitore quando mostra i suoi numeri. Qualcomm guadagna molto meno per ogni singolo pezzo, ma vende 10 volte il numero dei pezzi di Intel.
Mi pare ovvio: hanno business model molto diversi.
Insieme a Qualcomm c'è Samsung, una miriade di altri produttori minori (Marvell, Broadcomm, ST, Apple e nvidia) e tutti i produttori cinesi che si stanno affacciando con prodotti a bassissimo prezzo che alla gente bastano e avanzano e con cui Intel non può competere nei prezzi neanche rispolverando il primo Atom. Si parla di 2 miliardi di chip ARM based venduti. 2 miliardi! Sufficienti a mantenere attiva una o due fabbriche senza problemi. Che è quello che allarma Intel più di ogni altra cosa.
Per fortuna che lo dici soltanto tu, perché i numeri di tutte le altre divisioni mostrano uno scenario tutt'altro che da paura per l'azienda...
Fab che sono in grado di fare concorrenza ai suoi PP.
Da quando? Sono sempre state a inseguire...
PP che per lei diventano sempre più costosi perché il numero di pezzi che vende diminuisce ogni anno
Hai fonti per questo?
(e deve cercare clienti che non siano concorrenti e siano disposti a pagare... molto difficile).
Sarà difficile, ma i clienti ci sono, eccome. E aumentano pure. Saranno ammattiti tutti...
Dei miliardi di dispositivi ARM che oggi sono venduti, solo una piccola parte è in competizione con Intel. Intel non ha modo di entrare nel mercato dove ARM domina da eoni. Non ha i mezzi tecnici e là dove li ottiene sono a discapito dei costi insostenibili per questi mercati.
Assolutamente falso. Il novello mercato IoT dimostra l'esatto contrario.
Il tuo problema è che estendi la situazione del mercato mobile, dove Intel è entrata tardi, con la globalità.
Viceversa ARM da qualche anno ha cominciato a penetrare nel mercato di Intel. Piano. Poco alla volta. Sempre più dispositivi passano dall'essere x86 based ad ARM based.
E viceversa: vedi Galileo, Sophia, Edison...
Là dove i due punti elencati sopra (forza bruta e compatibilità con Windows) non servono, ARM è la scelta migliore.
Infatti s'è visto proprio su mobile dove la forza bruta non è l'elemento centrale.
Se non per l'efficienza, per i costi ineguagliabili dai processi produttivi che Intel deve usare per raggiungerla.
I 14nm sono arrivati soltanto da poco. Per i 22nm, mi pare che è stato già detto che sono simili ai 28nm degli altri.
Infine riguardo ai costi, i 22nm sono da tempo maturi ed economici. Tant'è che Intel, come già detto, colleziona pure partner esterni.
Al solito il tuo problema sta nel cercare di generalizzare la situazione del settore mobile con l'universo. Una nota fallacia logica...
Tutti che parlano di workstation e i7. Negli Stati Uniti è esplosa un nuovo mercato: quello dei Chrome Book. E guarda caso, se all'inizio tutti montavano processori Intel, ora si affacciano anche quelli con ARM.
Ora? Ma se sono disponibili da ben più di 2 anni!
Vanno meno? Sicuro. Stessa autonomia? Sì, più o meno. Ma costano meno!
Fonti / prezzi? Ovviamente di macchine con caratteristiche similari (a parte il SoC).
In un dispositivi nato per essere il più economico possibile, il costo del SoC è importante. Più delle prestazioni.
Infatti è proprio per questo che ce ne sono persino con degli "economici" i5. Oppure con ARM dotati di ben OTTO core. Dovresti contattare i produttori e fargli notare che hanno commesso un errore madornale...
E ricordo che oggi Intel è là dentro perché "foraggia" gli assemblatori. Quando la politica della spesa folle per ottenere nulla cesserà (perché deve cessare, quasi 8 miliardi in 2 anni per vendere una manciata di processori non ha alcun senso neanche per gli investitori e azionisti) Intel avrà un bel da farse per riuscire a convincere che quei MFlops a parità di W in più che ha valgono tutti quei soldi. Non solo agli assemblatori, ma anche ai potenziali clienti.
Anche qui vale quanto ho già precisato sopra: tu confondi il settore mobile (intendo smarthphone & tablet) con tutto il resto. Intel gli sconti li applica soltanto al primo.
Ma, a parte questo, SoC basati su Atom per uso NON mobile se ne trovano a poco prezzo e NON vengono venduti scontati.
Sarà una lotta continua, molto diversa da quella vissuta negli anni passati dove i pochi squali sono stati mangiati uno ad uno perché ognuno aveva una architettura diversa che non poteva mantenere in autonomia nel mercato di nicchia che si era ritagliato contro il colosso. Sarà un logorio, che là dove verrà arginato costerà moltissimo ad Intel in forma economica, e dove non ci riuscirà costerà in forma di vendite perse.
Le solite voci che si ripetono da anni. Intanto il 2014 è stato un anno da record, nonostante gli sconti di cui sopra, e l'azienda è in piena espansione. Ovviamente l'obiettivo per il 2015 è di fare ancora meglio, in barba alle solite cassandre...
Certo che Intel non fallirà. Ma è quasi certo che il ruolo di x86 nel mondo dell'informatica sarà rivisto. E più il livello si prestazioni minimo garantito dai minuscoli SoC ARM si alza peggio diventerà perché basterà sempre a più persone che nel frattempo si sarà liberata dal giogo di Windows.
Che rimane stabile al suo 90%. Anche qui vale quanto sopra: solite parole dei gufi che da tempo bazzicano internet.
cdimauro
10-02-2015, 23:24
Non da uno che fa finta (spero per lui) di non capire quello che scrivo. Sembra una continua presa per i fondelli la tua.
Se continui a scrivere delle autentiche balle continuerò a correggerti. E per il resto lascia che siano gli altri a giudicare, o ti vuoi ergere anche a giudice?
Lo vedo dai conti di Intel. 4.2 miliardi per 40 milioni di pezzi. Forse 4 volte è ancora poco.
Come già detto prima, tu confondi / estendi la situazione del mercato mobile con tutti gli altri.
Non so, vorresti dirmi che i processori extreme da 999$ venduti con forti sconti? Non succede nemmeno per gli Atom che trovi in tantissimi dispositivi come NUC et similia.
Dunque, ribadisco: in base a quali dati affermi che il processo a 22nm costi a Intel il quadruplo? Riporta pure.
:confused:
Hai deciso tu che l'argomento del giorno sono le prestazioni e non l'efficienza intesa come prestazioni/Watt/costi?
Su questo t'hanno risposto anche altri utenti.
Per il resto t'avevo riportato quanto era scritto, anche da te, in sequenza. Tanto basta per dimostrare che parlavi anche tu di prestazioni. Anche se a un certo punto hai deciso di deragliare perché l'argomento era divenuto impossibile da sostenere.
Sono buono e ti faccio risparmiare tempo che puoi investire in un buon libro di comprensione dell'italiano.
Non ti rimane altro che aggrapparti a queste battutine da 2 soldi. Gli altri utenti possono benissimo constatare chi dei due ne ha bisogno.
Non ho mai sostenuto che i nm di Intel fossero falsi.
Lo vedremo quando avrò tempo di fare una ricerca nel forum, nei vecchi thread.
Prima di tutto diventa un problema per chi?
Per la realtà, che non ama essere deformata.
In secondo luogo la frase è quella, è semplice, non contraddice il passato e non fa riferimento ad un possibile futuro. Leggi piano piano con me e cerca di comprendere:
Le-famose-manovre-sporche-di-Intel (quelle passate, quelle documentate, compreso fino a qui?) qui (oggi, in questo contesto, in questa situazione, sempre tutto chiaro o devo ripetere?) non-sono-applicabili (NON si possono ripetere, non ci sono le stesse condizioni).
Inutile che fai il negazionista. Intel è quello che ha fatto nella sua storia. Costellata non solo di circuiti.
Mai negato mi pare, ma puoi sempre dimostrare il contrario. Per il resto, vedi sotto.
E come tutte le cose, nessuno può negare che si ripeta. Anche se ti dà fastidio o ti crea "problemi", io penso e deduco quello che voglio. Dico che può ancora. Non è una accusa se è questo che ti crea "problemi". Poi comunque ci sono sempre bravi insegnanti migliori di me che possono aiutarti a comprendere il significato delle parole.
Come ad esempio che prima affermi questo:
"non fa riferimento ad un possibile futuro"
e poi questo:
"Dico che può ancora"
?
Lascio agli altri utenti le conclusioni su chi dei due ha difficoltà con la lingua italiana.
E perché mai, scusa? Non posso supporre che quello che è avvenuto in passato non possa accadere ancora? Cosa me lo impedisce?
L'assoluta mancanza di prove? La precedente causa sulla quale è intervenuta anche l'antitrust?
E sopratutto cosa ti dà questa certezza che non possa accadere?
Forse il fatto che, al contrario di te, io posso vedere tutti i giorni come si comporta l'azienda, invece di passare il tempo a inventare scenari complottisti soltanto per infangare un'azienda che ho deciso di ergere a nemico?
Oltre che all'italiano dovresti anche fare un po' di ripasso di storia, per capire come spesso le cose non capitano mai una volta sola e solo i beoti poi si meravigliano dicendo "un'altra volta??".
Dunque dai per assodato che, se una cosa è successa una volta, debba NECESSARIAMENTE accedere di nuovo?
Quindi immagino che se ti capiti di sbagliare tu continuerai a commettere lo stesso errore anche in futuro, anziché cercare di evitarlo...
Vediamo... 4GB di memoria prima dello scandalo.. sì, la scheda ha 4GB di RAM anche dopo.... 226GB/s di Banda.. vediamo... sì, ha 226GB/s di banda dopo lo scandalo (per solo 3.5 di RAM, ma non c'è scritto da nessuna parte diversamente), 64 ROPs , 56 ROPs.. no qui ha sbagliato, ha rubato ROPs. Indubbio.
Però vediamo.. prima dello scandalo il test di Anantech fatto a 1K, 2K e 4K.. la scheda si comporta come o meglio della 290X.. dopo lo scandalo.. sì, mi pare si comporti ancora allo stesso modo...
Torno alla convinzione originaria: il problema non sono le prestazioni a cui molti si sono aggrappati per sostenere lo scandalo, ma alla "furberia" di nvidia. Puoi essere incazzato quanto vuoi e con ragione perché ha tentato di fregarti, ma non puoi cercare la giustificazione nelle prestazioni della scheda che fa esattamente quello che deve e che è stato registrato a tutti i siti come tale. Se poi vuoi usare l'AA 8x a 4K per dimostrare che la scheda va in ginocchio, be', il problema a quel punto non ce l'a certo la scheda.
Anche perché in passato proprio AMD ha venduto schede che stutteravano in modalità di funzionamento normali e queste schede non erano castrate oltre alle specifiche date. Cioè lavoravano male a piene specifiche. Che non so se sia meglio. Quindi imbastire un'argomentazione riguardante le prestazioni non ha alcun senso. Soprattutto da chi ha digerito le schede AMD sopra citate.
Chi ha parlato di prestazioni? E' inutile che cerchi di rigirarla: io ho parlato esclusivamente di specifiche. Erano o non erano diverse prima dello scandalo? Questo è ciò che conta: che ai consumatori siano state vendute schede con specifiche diverse da quelle reali. Sei d'accordo oppure no? Sei d'accordo che è stato un comportamento scorretto (a voler essere generosi)?
A far girare Android anche sulla tua amata architettura x86? Comunque vedi post precedente.
Al solito hai evitato di rispondere a una precisa questione tecnica.
Ma lo ripeto ancora una volta: cosa c'entra la compatibilità con una macchina virtuale?
Risposta chiara e precisa, prego, esclusivamente tecnica (anche perché è soltanto tale).
Cercare di cambiare o tagliare nuovamente il discorso denoterà la tua mancanza di conoscenza in materia. In buona sostanza: hai sparato una balla colossale.
Bravo, vedi che se ti impegni riesci ad arrivare a comprendere le cose senza bisogno di aiuto?
Quella frase era ambigua e si prestava a esser applicata alla prima o all'ultima parte del precedente paragrafo. Infatti l'hai pure scritta a capo, anziché continuare subito dopo alla frase alla quale TU ti riferivi.
No no, non prendere lezioni da nessuno che vai bene così. Hai capacità di comprensione oltre alla media, non ci sono dubbi.
Risparmiati queste battutine, che lasciano il tempo che trovano.
Quanto tempo perso... e so già che me ne pentirò.
Se lo sai perché lo perdi? Nessuno ti obbliga a scrivere. Soprattutto nessuno ti obbliga a riportare le solite balle, che puntualmente riproporrai in nuovi thread, dopo che, al solito, abbandonerai questo a causa delle troppe smentite a cui avrai dimostrato di non saper controbattere.
Questo perché continui a cimentarti in ambiti di cui hai scarsa o nulla conoscenza. Il bagaglio culturale non lo si forma leggendo informazioni a destra e a manca, e "shackrando" il tutto, come hai già scritto. Lo si fa con studio e lavoro. Quello che ancora non hai capito...
P.S. Non ho tempo di correggere, perché mi fiondo a letto. Domani (oggi) si torna a lavoro.
cdimauro
10-02-2015, 23:31
Rispondo velocemente soltanto a questo.
A me continua a sembrare assurdo pensare che un'azienda come Intel sia fossilizzata solo su x86.
Perché va benissimo, e si è dimostrata un'architettura molto duttile, che è finita perfino nel settore embedded (con Galileo/Quark).
Contrariamente a tutte le (cattive) aspettive.
Soprattutto ricordando articoli dei mesi scorsi in cui si diceva che stessero addirittura pensando di comprarsi tutta MediaTek.
Era soltanto un'ipotesi/idea lanciata da un analista.
Comunque l'acquisizione non sarebbe stata volta a entrare nell'architettura ARM, quanto nell'ecosistema e portfolio di clienti che s'è creata Mediatek, che sarebbe il vero valore di quest'azienda per Intel.
Che poi al 90% dell'utenza comune non serva un i7 si sa da anni, non è una novità di ora.
Senz'altro, ma l'asticella si continua ad alzare con le esigenze che diventano sempre più complesse / pesanti da soddisfare. Vedi il discorso dei netbook che ho fatto prima.
Certamente un i7 attuale sarà overkill anche fra diversi anni per la maggior parte dell'attuale utenza, ma non lo saranno le versioni minori, che in futuro diventeranno il punto di riferimento / la normalità per gli utenti comuni.
http://en.wikipedia.org/wiki/Chromebook#Chromebook_models
HP Chromebook ARM Exynos 5 Dual 12" : 6 hours
HP Chromebook INTEL Celeron 2955U 14" : 9 hours
:|
Il Chromebook 11 (quello che hai indicato come 12" )
ha come cpu un Exynos 5 dual (Cortex A15 a 32nm) ad 1.6Ghz
e secondo
http://www.fonearena.com/tech/review/hp-chromebook-11-review/5429/
ha una batteria da 30Wh.
Mentre invece il Chromebook 14 ha una cpu Celeron 2955U (a 22nm) ad 1.4Ghz (ed UNO step tecnologico avanti 32 -> 22 secondo la progressione delle fab di Intel e DUE step tecnologici avanti 32 -> 28-> 22 -> 20 secondo quella delle fab Samsung che usano anche gli half-node).
e cercando in giro mi risulta che abbia una batteria da 37Wh
( http://www.atbatt.com/laptop-batteries/b/hp/m/chromebook-14-c010us.asp ).
Processore che gira a frequenza più bassa, uno step tecnologico più avanti e circa un 25% in più di batteria.
E poi se si guarda la recensione dell' 11 su Notebookreview ...
http://www.notebookcheck.net/Review-HP-Chromebook-11.105485.0.html
Si trova un riferimento ad un altro HP Chromebook 14
questa volta con un Celeron 847ULV a 32nm ed 1.1Ghz :read:
( http://www.notebookcheck.net/Review-HP-Pavilion-14-c010us-Chromebook.98655.0.html )
e si scopre che nonostante il resto sia come quello con il 2955U a 22nm
(inclusa la batteria da 37Wh)
ha una durata di solo 4 ore e 14 minuti con il loro test di "websufurfing su WLAN) ed 1 ora e 58 minuti nel test di video playback 1080p.
Mentre invece l'11 negli stessi test ha fatto 5 ore ed 8 minuti di websurfing su WLAN e 3 ore e 26 minuti di video playback 1080p
(e tutto questo con una batteria da 30Wh).
Per questo, come ho già affermato precedentemente, per Intel saranno caXXi amari se non riesce a tenersi avanti alla concorrenza con gli step tecnologici.
MiKeLezZ
11-02-2015, 01:05
Il Chromebook 11 (quello che hai indicato come 12" )
ha come cpu un Exynos 5 dual (Cortex A15 a 32nm) ad 1.6Ghz
e secondo
http://www.fonearena.com/tech/review/hp-chromebook-11-review/5429/
ha una batteria da 30Wh.
Mentre invece il Chromebook 14 ha una cpu Celeron 2955U (a 22nm) ad 1.4Ghz (ed UNO step tecnologico avanti 32 -> 22 secondo la progressione delle fab di Intel e DUE step tecnologici avanti 32 -> 28-> 22 -> 20 secondo quella delle fab Samsung che usano anche gli half-node).
e cercando in giro mi risulta che abbia una batteria da 37Wh
( http://www.atbatt.com/laptop-batteries/b/hp/m/chromebook-14-c010us.asp ).
Processore che gira a frequenza più bassa, uno step tecnologico più avanti e circa un 25% in più di batteria.
Per questo, come ho già affermato precedentemente, per Intel saranno caXXi amari se non riesce a tenersi avanti alla concorrenza con gli step tecnologici.Ma mi stai prendendo per il culo o cosa?
L'INTEL monta un LCD che è il 20% più grande e questo è il componente che ciuccia più batteria in assoluto e il rapporto 30:100=37:x indica una percentuale di batteria il 23% maggiore (se già mi cominci a ladrare sui numeri ipotizzo malafede!).
Quindi senza farsi troppe seghine possiamo dire il confronto sia alla pari.
Con la differenza che 2955U mi fornisce 6:100=9:x il 50% in più di durata!!!! Stic!!!! E il 2955U pompa QUASI il DOPPIO del Exynos 5 Dual (Octane test di 11k contro 6k!!!!!!) PUR AVENDO FREQUENZA INFERIORE (e sappiamo bene che non è un limite dell'architettura, come invece in ARM... semplicemente l'hanno settata bassa per ridurre i consumi).
DOPPIA DURATA, DOPPIA POTENZA, COSTI INFERIORI DATO IL PROCESSO PRODUTTIVO INFERIORE E HA PURE DISATTIVATI TURBO BOOST, HYPER-THREADING, TSX, AVX, AES-NI (PERCHE' ALTRIMENTI GLI SEMBRAVA TROPPO...)!!!!!!!!! DI COSA DOVREBBE PREOCCUPARSI INTEL, SCUSA??!
I 14nm sono arrivati soltanto da poco. Per i 22nm, mi pare che è stato già detto che sono simili ai 28nm degli altri.SOLO i 22nm sono simili -SOLO IN DENSITA'- ai 28nm di TSMC. Che significa? Niente. Roba per gli investistori (costi). Comunque con i 14nm, vantaggio ripreso (pure rispetto ai 16nm della concorrenza).
INTEL è stata la prima a usare l'high-k (che ora usano le concorrenti) e ora la prima a usare non solo il FinFET (che useranno le concorrenti quando e se cominceranno i 16nm), ma pure il tri-gate tridimensionale (fantascienza per gli altri)... Intel è un processo produttivo avanti, 12 mesi di vantaggio tecnologico che si traducono anche in una efficenza doppia in produzione.
cdimauro
11-02-2015, 06:18
Lo stai dicendo a me? Io lo so benissimo (e vedi anche la firma). :) Ma in questo forum c'è gente che a fasi, alterne, afferma che Intel è in vantaggio grazie al processo produttivo quando si parla di consumi e prestazioni, e viceversa che sta imbrogliando sulle dimensioni dei transistor rispetto alla concorrenza quando si parla delle fab e dei processi produttivi. Ovviamente mi riferisco alla diatriba 22nm Intel vs 28nm resto del mondo. Dalle mie parti delle due ne vale soltanto una. ;)
Per il resto concordo che i confronti andrebbero fatti con prodotti aventi caratteristiche simili. Idealmente per poter valutare esclusivamente l'architettura si dovrebbe cambiare esclusivamente il core lasciando invariato tutto il resto. Ciò, purtroppo, non è possibile, perché i chip / SoC integrano all'interno parecchia altra roba, anche molto diversa (pur facendo le stesse cose. Mi riferisco a GPU, decoder video, ecc.).
cdimauro
11-02-2015, 06:27
Devo correre a lavoro, ma un'altra cosa su questo la voglio dire.
Oggi sì, ovviamente. Ma sempre x86 è. Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali), chi dice che Intel non abbia un piano B?
Mi riallaccio al tema del thread. Il punto è: ne ha davvero bisogno? Esiste un'alternativa che possa portare vantaggi a Intel rispetto a quanto è già in grado di fare. Avrebbe senso cambiare per seguire gli altri produttori di processori, entrando a far parte della famiglia ARM (o di un altro RISC)?
A mio modesto avviso no, perché significherebbe perdere uno dei primati che la caratterizzano: le prestazioni. E, a ruota, la densità di codice, che è anche uno dei motivi per tanti RISC montano cache di dimensioni più grandi (per il codice, in genere).
Dunque se dovesse cambiare, Intel dovrebbe adottare una soluzione che le consenta di mantenere quanto meno il vantaggio che ha adesso. Ma, soprattutto, dovrebbe trovare delle vere motivazioni per poter effettuare questo drastico cambio.
Sul primo punto, dopo anni di ricerche, studi, e lavoro, io ho fornito una mia personale soluzione al problema, di cui trovi un breve abstract nel link mia firma.
Il secondo punto non è cosa che mi compete.
Passo e chiudo, che forse domani ci sarà il nuovo papiro di Di Mauro, e mica voglio rubare spazio :D
Tu is megl che uan. :)
Devo correre a lavoro, ma un'altra cosa su questo la voglio dire.
Mi riallaccio al tema del thread. Il punto è: ne ha davvero bisogno? Esiste un'alternativa che possa portare vantaggi a Intel rispetto a quanto è già in grado di fare. Avrebbe senso cambiare per seguire gli altri produttori di processori, entrando a far parte della famiglia ARM (o di un altro RISC)?
A mio modesto avviso no, perché significherebbe perdere uno dei primati che la caratterizzano: le prestazioni. E, a ruota, la densità di codice, che è anche uno dei motivi per tanti RISC montano cache di dimensioni più grandi (per il codice, in genere).
Chiaramente è l'architettura RISC in sé a comportare un aumento del numero di istruzioni necessarie ad eseguire una data operazione, rispetto a CISC.
D'altronde, fino a non molto tempo fa, il vero problema di x86 nel settore mobile non era certo dato dalle prestazioni, ma dal fatto che, provenendo dal mondo dei desktop, si portava dietro consumi maggiori. Con gli Atom Intel sembra aver perso la strada giusta anche in questa direzione, quindi nemmeno io, in realtà, vedo perché dovrebbe cambiare direzione.
Il mio commento era legato, infatti, ad un'ipotesi precisa:"Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali)"
Dunque se dovesse cambiare, Intel dovrebbe adottare una soluzione che le consenta di mantenere quanto meno il vantaggio che ha adesso. Ma, soprattutto, dovrebbe trovare delle vere motivazioni per poter effettuare questo drastico cambio.
Intel è nel settore da decenni, sono sicuro che ancora adesso sappia come affrontare, eventualmente, un cambio di rotta. Soprattutto considerando quanto incassa ogni anno, cosa non di poco conto.
Comunque, secondo me l'unica motivazione potrebbe essere un non riuscire a convincere gli OEM della bontà dei suoi chip anche nel settore mobile. Il che non significa che rischia di fallire, tra l'altro, visto quanto fattura nei settori in cui le prestazioni servono, eccome (forse qualcuno dimentica che, in quegli ambiti, i prezzi stanno intorno ai 1000$ a chip, mica parliamo dello smartphone per Facebook e Whatsapp).
E tu hai già ricordato come Intel entri prepotentemente anche nel mondo embedded.
Tu is megl che uan. :)
Spero si sia capito che quella parte di commento era in tono "positivo" :D
A me continua a sembrare assurdo pensare che un'azienda come Intel sia fossilizzata solo su x86.
Ci ha provato con Itanium con risultati non propriamente soddisfacenti
Oggi sì, ovviamente. Ma sempre x86 è. Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali), chi dice che Intel non abbia un piano B?
Il set istruzioni è solo un guscio esterno che ha poco a che vedere con quello che c' è dentro il processore, le architetture delle varie CPU sono cambiate moltissimo nel tempo, tra i Pentium III e la famigerata Netburst dei P IV e poi l' architettura core c' è in comune il set di istruzioni, ma dentro cambia tutto.
Tra l' altro mi risulta che proprio l' architettura netburst fosse il "piano B" per i problemi a salire le frequenze dei PIII, e l' architettura core fu la scelta di ripiego per il fallimento a raggiungere i 10 Ghz dell' architettura netburst
Quindi di piani B Intel ne ha sempre avuti
Ci ha provato con Itanium con risultati non propriamente soddisfacenti
Sì ma parliamo degli anni Novanta. Comunque nessuno è infallibile, ci mancherebbe.
Il set istruzioni è solo un guscio esterno che ha poco a che vedere con quello che c' è dentro il processore, le architetture delle varie CPU sono cambiate moltissimo nel tempo, tra i Pentium III e la famigerata Netburst dei P IV e poi l' architettura core c' è in comune il set di istruzioni, ma dentro cambia tutto.
Tra l' altro mi risulta che proprio l' architettura netburst fosse il "piano B" per i problemi a salire le frequenze dei PIII, e l' architettura core fu la scelta di ripiego per il fallimento a raggiungere i 10 Ghz dell' architettura netburst
Quindi di piani B Intel ne ha sempre avuti
E' un guscio esterno che però ha una "discreta" importanza; le architetture evolvono col tempo, chiaramente.
I 10GHz sono stati un tentativo eccessivo: la Fisica non guarda in faccia nessuno.
Ma mi stai prendendo per il culo o cosa?
No.
L'INTEL monta un LCD che è il 20% più grande e questo è il componente che ciuccia più batteria in assoluto e il rapporto 30:100=37:x indica una percentuale di batteria il 23% maggiore (se già mi cominci a ladrare sui numeri ipotizzo malafede!).
Quindi senza farsi troppe seghine possiamo dire il confronto sia alla pari.
Con la differenza che 2955U mi fornisce 6:100=9:x il 50% in più di durata!!!! Stic!!!! E il 2955U pompa QUASI il DOPPIO del Exynos 5 Dual (Octane test di 11k contro 6k!!!!!!) PUR AVENDO FREQUENZA INFERIORE (e sappiamo bene che non è un limite dell'architettura, come invece in ARM... semplicemente l'hanno settata bassa per ridurre i consumi).
DOPPIA DURATA, DOPPIA POTENZA, COSTI INFERIORI DATO IL PROCESSO PRODUTTIVO INFERIORE E HA PURE DISATTIVATI TURBO BOOST, HYPER-THREADING, TSX, AVX, AES-NI (PERCHE' ALTRIMENTI GLI SEMBRAVA TROPPO...)!!!!!!!!! DI COSA DOVREBBE PREOCCUPARSI INTEL, SCUSA??!
SOLO i 22nm sono simili -SOLO IN DENSITA'- ai 28nm di TSMC. Che significa? Niente. Roba per gli investistori (costi). Comunque con i 14nm, vantaggio ripreso (pure rispetto ai 16nm della concorrenza).
INTEL è stata la prima a usare l'high-k (che ora usano le concorrenti) e ora la prima a usare non solo il FinFET (che useranno le concorrenti quando e se cominceranno i 16nm), ma pure il tri-gate tridimensionale (fantascienza per gli altri)... Intel è un processo produttivo avanti, 12 mesi di vantaggio tecnologico che si traducono anche in una efficenza doppia in produzione.
Il 2955U ha un TDP di 15Watt (e trattasi di THERMAL design power, il picco di consumo di potenza elettrica può arrivare anche a 1.5 volte il TDP), il motivo per cui "consuma meno" è che nel test di websurfing la cpu viene usata relativamente poco e per il resto sta in idle dove i vantaggi di uno step tecnologico di vantaggio si sentono eccome.
Per questo ho tirato in ballo l'HP Chromebook 14 con un Celeron ULV a 32nm (stesso step dell' l'Exynos 5 Dual) e TDP 17Watt dove si vede cosa succede a parità di step. :read:
Poi se non si hanno i dati sul sistema di backlighting dei due display è difficile capire se un 20% in più di area si traduce in un 20% in più di consumo
(dipende dai led utilizzati e da altri accorgimenti)
MA
nelle due recensioni di Notebookcheck che avevo postato
( http://www.notebookcheck.net/Review-HP-Chromebook-11.105485.0.html
http://www.notebookcheck.net/Review-HP-Pavilion-14-c010us-Chromebook.98655.0.html )
se vai a vedere LE CARATTERISTICHE DEI DISPLAY
si nota che il 12" viaggia a 300 cd/m^2 con contrasto 578:1
mentre il 14" raggiunge solo 235 cd/m^2 con contrasto 373:1
il che fa pensare che il consumo extra legato al backlighting
sia decisamente inferiore all'aumento dell'area. :read:
E questo ci fa ritornare a quel che dicevo prima: uno step tecnologico di vantaggio fa una differenza notevole. :read:
Sì ma parliamo degli anni Novanta. Comunque nessuno è infallibile, ci mancherebbe.
Itanium è partito nel 2001 ed è ancora in produzione :stordita:
E' un guscio esterno che però ha una "discreta" importanza; .
Molta meno di quanto comunemente si pensi ;)
C' è uno strato esterno che traduce le istruzioni nei codici veramente usati dal processore internamente, moduli che riordinano e riorganizzano il codice, esecuzioni out-of-order, registri rinominati al volo e un sacco di altra roba.
Che siano istruzioni ARM o x86 assomigliano ormai sempre più al C come livello di astrazione, addirittura Transmeta nei suoi processori usava un traduttore software anzichè HW per trasformare un codice x86 in VLIW.
Sono proprio le CPU VLIW quelle che hanno cercato di riportare il codice assembly al livello del processore ma proprio Itanium non è riuscito a rendere reale il vantaggio teorico di questo approccio, gestire esplicitamente il parallelismo dei processori del nuovo millennio è un casino.
Itanium è partito nel 2001 ed è ancora in produzione :stordita:
A meno che non abbia sbagliato Itanium, il progetto è partito nei primi anni Novanta, almeno stando a Wikipedia: http://it.wikipedia.org/wiki/Itanium
Molta meno di quanto comunemente si pensi ;)
C' è uno strato esterno che traduce le istruzioni nei codici veramente usati dal processore internamente, moduli che riordinano e riorganizzano il codice, esecuzioni out-of-order, registri rinominati al volo e un sacco di altra roba.
Che siano istruzioni ARM o x86 assomigliano ormai sempre più al C come livello di astrazione, addirittura Transmeta nei suoi processori usava un traduttore software anzichè HW per trasformare un codice x86 in VLIW.
Sono proprio le CPU VLIW quelle che hanno cercato di riportare il codice assembly al livello del processore ma proprio Itanium non è riuscito a rendere reale il vantaggio teorico di questo approccio, gestire esplicitamente il parallelismo dei processori del nuovo millennio è un casino.
Parli di CMS, immagino, il quale fu introdotto (credo) anche per ovviare ad una problematica intrinseca di VLIW (correggimi se sbaglio).
Quest'ultimo, infatti, affida la gestione delle dipendenze tra le istruzioni che verranno eseguite in parallelo al compilatore, con la conseguente, necessaria, ricompilazione di un intero parco software qualora cambi l'architettura del microprocessore sottostante.
Comunque, il tempo dirà cosa accadrà :D
Dato che nel topic ci sono diverse figure di rilievo, volevo chiedervi cosa ne pensate di Jazelle (a proposito di Java e ARM, anche se a quanto ho letto può essere usato con altre VM).
E' realmente usato? Funziona? :D
Dato che nel topic ci sono diverse figure di rilievo, volevo chiedervi cosa ne pensate di Jazelle (a proposito di Java e ARM, anche se a quanto ho letto può essere usato con altre VM).
Ne penso tutto il male possibile.
Le specifiche pubbliche di Jazelle erano incomplete, per farne uso in modo completo chi sviluppava VM doveva firmare un accordo con ARM per accedere ad informazioni riservate.
E' realmente usato? Funziona? :D
In teoria Jazelle è stato sostituito da ThumbEE che è pensato per utilizzi più "generici" ma anche esso che io sappia non ha avuto gran successo.
Infine nel 2011 ARM Ltd ha deprecato l'uso di ThumbEE (nel senso di: "cari sviluppatore, da qui in avanti non vi garantiamo che sia supportato su nuove cpu") e lo ha rimosso totalmente nell'architettura ARMv8 (ARM a 64 bit con retrocompatibilità a 32bit ... escluso ThumbEE).
cdimauro
11-02-2015, 17:49
Chiaramente è l'architettura RISC in sé a comportare un aumento del numero di istruzioni necessarie ad eseguire una data operazione, rispetto a CISC.
Esattamente, e questo comporta anche un maggior numero di dipendenze generate fra le istruzioni per i calcoli intermedi o le load.
D'altronde, fino a non molto tempo fa, il vero problema di x86 nel settore mobile non era certo dato dalle prestazioni, ma dal fatto che, provenendo dal mondo dei desktop, si portava dietro consumi maggiori. Con gli Atom Intel sembra aver perso la strada giusta anche in questa direzione, quindi nemmeno io, in realtà, vedo perché dovrebbe cambiare direzione.
Magari per fare ancora meglio. :D Ma finché non c'è reale necessità (SE mai ci sarà), non si muoverà di un millimetro.
Il mio commento era legato, infatti, ad un'ipotesi precisa:"Se il problema tanto discusso fosse davvero l'architettura in sè (ed ho seri dubbi a riguardo, proprio grazie agli Atom attuali)"
OK. E concordo. Anzi, personalmente trovo che l'architettura sia un vantaggio.
Spero si sia capito che quella parte di commento era in tono "positivo" :D
Assolutamente. :)
Ci ha provato con Itanium con risultati non propriamente soddisfacenti
Diciamo che Itanium è stato affossato da x64, perché i piani erano quelli di una transizione completa a Itanium.
Comunque prima di Itanium c'ha provato con l'80960 (http://en.wikipedia.org/wiki/Intel_i960) e poi con l'80860 (http://en.wikipedia.org/wiki/Intel_i860), che erano RISC decisamente avanzati per quei tempi.
Il set istruzioni è solo un guscio esterno che ha poco a che vedere con quello che c' è dentro il processore, le architetture delle varie CPU sono cambiate moltissimo nel tempo, tra i Pentium III e la famigerata Netburst dei P IV e poi l' architettura core c' è in comune il set di istruzioni, ma dentro cambia tutto.
Sì, ma quel che conta è sempre e soltanto l'architettura (ISA) e non la microarchitettura (particolare implementazione dell'ISA). Il codice che gira è basato sull'ISA e non sulla microarchitettura; i dettagli implementativi sono utili esclusivamente per ottimizzare meglio il codice, sfruttandone le caratteristiche.
Tra l' altro mi risulta che proprio l' architettura netburst fosse il "piano B" per i problemi a salire le frequenze dei PIII, e l' architettura core fu la scelta di ripiego per il fallimento a raggiungere i 10 Ghz dell' architettura netburst
Quindi di piani B Intel ne ha sempre avuti
Non parlerei di piani B rimanendo sul piano della microarchitetture, per lo meno per il discorso che stava facendo GTKM.
Per me un eventuale piano B sarebbe rappresentato da un cambio di ISA.
Il 2955U ha un TDP di 15Watt (e trattasi di THERMAL design power, il picco di consumo di potenza elettrica può arrivare anche a 1.5 volte il TDP), il motivo per cui "consuma meno" è che nel test di websurfing la cpu viene usata relativamente poco e per il resto sta in idle dove i vantaggi di uno step tecnologico di vantaggio si sentono eccome.
Non sono assolutamente d'accordo, perché proprio il web surfing è un compito che stressa particolarmente la CPU, e in particolare le prestazioni su singolo core/thread.
Per questo ho tirato in ballo l'HP Chromebook 14 con un Celeron ULV a 32nm (stesso step dell' l'Exynos 5 Dual) e TDP 17Watt dove si vede cosa succede a parità di step. :read:
Poi se non si hanno i dati sul sistema di backlighting dei due display è difficile capire se un 20% in più di area si traduce in un 20% in più di consumo
(dipende dai led utilizzati e da altri accorgimenti)
MA
nelle due recensioni di Notebookcheck che avevo postato
( http://www.notebookcheck.net/Review-HP-Chromebook-11.105485.0.html
http://www.notebookcheck.net/Review-HP-Pavilion-14-c010us-Chromebook.98655.0.html )
se vai a vedere LE CARATTERISTICHE DEI DISPLAY
si nota che il 12" viaggia a 300 cd/m^2 con contrasto 578:1
mentre il 14" raggiunge solo 235 cd/m^2 con contrasto 373:1
il che fa pensare che il consumo extra legato al backlighting
sia decisamente inferiore all'aumento dell'area. :read:
E questo ci fa ritornare a quel che dicevo prima: uno step tecnologico di vantaggio fa una differenza notevole. :read:
Ancora una volta non sono d'accordo perché ci sono troppe variabili diverse: non è soltanto il core a cambiare. Perfino le GPU sono completamente diverse. E nella recensione sottolineano come l'ARM monti un chipset appositamente low-power: "performance is notably hampered by the low-power, ARM-based chipset".
Oltretutto quel Celeron è un SandyBridge, che non è esattamente pensato per l'ambito mobile, come d'altra parte mostrano i numeri dei benchmark.
Last but not least, mi pare che Chrome OS giri a 32-bit anziché a 64-bit, e quindi manca il vantaggio prestazionale che ne deriverebbe eseguendo il codice in quest'ultima modalità.
Itanium è partito nel 2001 ed è ancora in produzione :stordita:
Al momento sì.
Molta meno di quanto comunemente si pensi ;)
E' proprio quello che fa la differenza, però. ;)
C' è uno strato esterno che traduce le istruzioni nei codici veramente usati dal processore internamente, moduli che riordinano e riorganizzano il codice, esecuzioni out-of-order, registri rinominati al volo e un sacco di altra roba.
Che siano istruzioni ARM o x86 assomigliano ormai sempre più al C come livello di astrazione, addirittura Transmeta nei suoi processori usava un traduttore software anzichè HW per trasformare un codice x86 in VLIW.
Sono proprio le CPU VLIW quelle che hanno cercato di riportare il codice assembly al livello del processore ma proprio Itanium non è riuscito a rendere reale il vantaggio teorico di questo approccio, gestire esplicitamente il parallelismo dei processori del nuovo millennio è un casino.
C'è troppa complessità in gioco ormai. Le microarchitetture hanno tante variabili di cui tenere conto per ottenere le migliori prestazioni, ed è una cosa che è molto più facile da controllare a runtime, eseguendo il codice in quel preciso momento. Roba che né un compilatore né tanto meno un "riordinatore di codice / allocatore di risorse" software (a runtime) per un'architettura VLIW potrebbe fare in maniera più efficiente.
Dato che nel topic ci sono diverse figure di rilievo, volevo chiedervi cosa ne pensate di Jazelle (a proposito di Java e ARM, anche se a quanto ho letto può essere usato con altre VM).
E' realmente usato? Funziona? :D
Riporto un paio di articoli che ho scritto un po' di anni fa:
Jazelle: l’accelerazione Java secondo ARM (http://www.appuntidigitali.it/4887/jazelle-laccelerazione-java-secondo-arm/)
ThumbEE: da ARM una virtual machine per tutti i linguaggi (http://www.appuntidigitali.it/10374/thumbee-da-arm-una-virtual-machine-per-tutti-i-linguaggi/)
Un paio di appunti che mi sento di fare sull'argomento:
- all'epoca ero troppo fissato col conteggio dei transistor. Già all'epoca c'erano chip da centinaia di milioni di transistor (non soltanto x86/x64), per cui enfatizzare roba come 12 mila transistor non porta alcun contributo sia al power-budget a disposizione sia al silicio consumato considerato quei mostri di chip;
- le soluzioni JIT-based native (quindi senza apposita modalità d'esecuzione) si sono rivelate le più duttili (come scenari di utilizzo) e performanti, pur consumando più memoria.
Ne penso tutto il male possibile.
Le specifiche pubbliche di Jazelle erano incomplete, per farne uso in modo completo chi sviluppava VM doveva firmare un accordo con ARM per accedere ad informazioni riservate.
Strano. Non ne vedo il motivo. Per me documentazione -> più facilità per ottenere il supporto.
In teoria Jazelle è stato sostituito da ThumbEE che è pensato per utilizzi più "generici" ma anche esso che io sappia non ha avuto gran successo.
No, infatti. Ad esempio, qui (http://www.mail-archive.com/android-porting@googlegroups.com/msg09645.html) se n'è discusso.
Ma ne avevo parlato anche alla fine del mio pezzo:
"Pensando a CPython, avrei comunque notevoli difficoltà a realizzarne un porting per ThumbEE, in quanto il codice del loop principale che esegue i bytecode è decisamente diverso e richiederebbe, di fatto, una VM nuova di zecca."
Infine nel 2011 ARM Ltd ha deprecato l'uso di ThumbEE (nel senso di: "cari sviluppatore, da qui in avanti non vi garantiamo che sia supportato su nuove cpu") e lo ha rimosso totalmente nell'architettura ARMv8 (ARM a 64 bit con retrocompatibilità a 32bit ... escluso ThumbEE).
Strano, perché viene ancora supportata Thumb-2 a 32-bit.
Potrei capire che ThumbEE non ci sia a 64-bit, perché non c'è nemmeno Thumb (per ovvie ragioni: l'ISA che ne verrebbe fuori sarebbe estremamente castrata paragonata a quanto offerto da ARMv8; inoltre non è più possibile mappare quasi tutte le istruzioni ARMv8, perché non c'è proprio spazio a disposizione nella opcode table per contenere sia le istruzioni Thumb sia quelle ARMv8 "non condizionate").
L'unica motivazione che trovo è che ciò sia stato fatto per non appesantire troppo il decoder e l'unità di load-store col dover tenere conto di un'altra modalità d'esecuzione.
Strano. Non ne vedo il motivo. Per me documentazione -> più facilità per ottenere il supporto.
Tieni presente che dovevi firmre un accordo con ARM Ltd per avere accesso alle infomazioni extra necessarie per usare davvero Jazelle e c'erano anche problemi riguardo le proprietà intellettuali.
Era persino espressamente vietato distribuire software che usasse l'istruzione BXJ se prima non si era fatto un accordo con ARM ltd.
Cioè anche se ti basavi su informazioni pubbliche non potevi rilasciare software che usasse la BXJ perche rischiavi rogne legali.
Strano, perché viene ancora supportata Thumb-2 a 32-bit.
Thumb-2 e ThumbEE (o "successore di Jazelle") sono due cose differenti.
Il supporto di ThumbEE richiede uno stato separato del processore (segnalato quando i bit T e J del registro CPSR sono entrambi ad 1).
Potrei capire che ThumbEE non ci sia a 64-bit, perché non c'è nemmeno Thumb (per ovvie ragioni: l'ISA che ne verrebbe fuori sarebbe estremamente castrata paragonata a quanto offerto da ARMv8; inoltre non è più possibile mappare quasi tutte le istruzioni ARMv8, perché non c'è proprio spazio a disposizione nella opcode table per contenere sia le istruzioni Thumb sia quelle ARMv8 "non condizionate").
L'unica motivazione che trovo è che ciò sia stato fatto per non appesantire troppo il decoder e l'unità di load-store col dover tenere conto di un'altra modalità d'esecuzione.
Circa dal 2000 era ovvio che tecnologie di quel tipo erano superate, con LLVM era già chiaro dove si stava andando in termini di emulazione, esecuzione "sicura" del codice e VM.
cdimauro
12-02-2015, 05:46
LLVM era appena nato nel 2000, e molto immaturo. Ci sono voluti diversi anni prima che diventasse papabile per implementare virtual machine robuste, ma non è ancora chiaro se sia capace di gestire linguaggi dinamicamente tipati.
Col progetto Unladen Swallow (http://en.wikipedia.org/wiki/Unladen_Swallow) Google provò a utilizzare LLVM per realizzare una nuova versione di CPython (la versione mainstream del linguaggio) che fosse molto più veloce. Il progetto, come puoi vedere dal link, è fallito, anche se era stato dato il via libera dai core developer di CPython.
All'epoca dell'annuncio dell'integrazione di Unladen Swallow in CPython scrissi una mail al responsabile del progetto, nella mailling list degli sviluppatori di (C)Python, in cui esponevo le mie perplessità (http://www.gossamer-threads.com/lists/python/dev/801674#801674) su diverse questioni. Trovi la sua replica qui (http://www.gossamer-threads.com/lists/python/dev/802042#802042), e la mia successiva qui (http://www.gossamer-threads.com/lists/python/dev/802192#802192).
A 5 anni di distanza, come dicevo, il progetto è sostanzialmente morto. I vantaggi prestazionali che LLVM avrebbe dovuto portare sono rimasti ben al di sotto delle aspettative, e tutte le problematiche che avevo sollevato permangono.
Non so se adesso LLVM sia migliorato in tal senso, ma ne dubito fortemente. La mia esperienza con CPython e con la mia versione (WPython) mi porta a pensare che LLVM rimanga un progetto troppo complesso per linguaggi dinamicamente tipati. Poi, "del diman non v'è certezza", sia chiaro.
Riguardo a ThumbEE, so che richiede un apposito stato del processore. Infatti avevo scritto di "un'altra modalità d'esecuzione". Ma rimane molto simile a Thumb-2, da cui "discende". Nel mio articolo ne spiego in dettaglio le differenze.
Comunque rimane un mistero il perché di tutte le limitazioni che ARM ha imposto agli sviluppatori per usare Jazelle. Bah.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.