|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#21 | ||
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
Quote:
Inoltre a patto che quei dati siano veri, misurano solo il lato integer e non il float ? Ultima modifica di PaulGuru : 16-12-2013 alle 10:56. |
||
|
|
|
|
|
#22 | ||
|
Senior Member
Iscritto dal: Feb 2011
Messaggi: 347
|
Quote:
Quote:
|
||
|
|
|
|
|
#23 |
|
Senior Member
Iscritto dal: Jan 2002
Messaggi: 10337
|
|
|
|
|
|
|
#24 | |
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
Se vuoi sostenere una discussione è una cosa, se non ti va di sforzarti troppo allora lascia perdere proprio la discussione. Ti ho solo fatto notare che i Centerton non sono affatto Bay Trail e senza benchmark veri ogni cosa è in dubbio e la parola di qualche distributore o portale specie bitsandchips lasciano il tempo che trovano. Anzi fino ad ora c'è solo questo visto che prima si parlava di servizi web e cloud : ![]() L'ECX2000 in questione inoltre ha un TDP dichiarato di 16W, mentre l'Atom C2530 20W, ti sembra il doppio ? Ultima modifica di PaulGuru : 16-12-2013 alle 11:27. |
|
|
|
|
|
|
#25 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
In primo luogo, come è da prassi Intel, il confronto lo stai facendo tra l'ultimo processore a 22nm con uno del 2010 a 40nm (gli A9 di Caldexa). Già qui la dice lunga sulla voglia di Intel di confrontarsi, non dico con gli ultimi A53/A57 che non si sono ancora affacciati sul mercato, ma almeno un A15 a 28nm. Secondo i 20W del processore Intel è un valore inutile da considerare, dato che nei 5W del SoC Caldexa è contenuto TUTTO il necessario per far funzionare il server (network escluso), mentre l'Atom richiede ancora un chipset esterno, non fatto a 22nm e che consuma pure lui. Quelli non li consideriamo? Infine, inutile stare qui a farsi le menate su tabelle e grafici palesemente falsificati nei confronti (se lo confrontava con un A8 monocore la barretta blu sarebbe andata alle stelle! Che informazioni utile sarebbe stata, vero? Forse no, però sicuramente a livello commerciale che bella figura!). Quello che conta è ciò che il mercato sta chiedendo. Il mercato di server a basso IPC e bassissimo consumo è in crescita. Però non si guarda a Intel. Caldexa e molti altri hanno già presentato delle soluzioni acerbe ma che mostrano le enormi potenzialità che si possono avere con le nuove architetture ARM a 64 bit. Infatti, guardacaso, tutti i produttori di SoC ARM stanno facendo proclami di SoC a 64 bit (e chi crede siano destinati agi smartphone crede male) e la stessa AMD ha intenzione di occupare parte di questo nuovo mercat con degli Opteron basati su ARM. Intel sono 3 generazioni che dice che i suoi Atom sono migliori dei processori ARM, ma sono 3 generazioni che non ne vende uno nel mondo mobile, e difatti appena presentato un Atom nuovo di pacca si affretta a dire che i prossimi (sempre a nanometria inferiore ovviamente) sarà ancora meglio e sarà imbattibile dal resto del mondo, giusto per dimostrare ai potenziali clienti che Intel sta migliorando e che non si deve abbandonarla. Ma purtroppo, a meno che Intel non paghi e sovvenzioni dei progetti pilota, NESSUN produttore di dispositivi mobile prende in considerazione l'uso degli Atom. Smartphone e tablet con ARM venduti quest'anno circa 1 miliardo, Atom venduti NP. ARM non ha bisogno di fare alcun proclamo su un bel niente, dato che per lei parlano le cifre da sole: consumi/prestazioni è imbattibile, non c'è Atom a 22 nm che tenga. Dal punto di vista costi è altrettanto imbattibile, dato che un SoC ARM che integra tutto è grande in numero di transistori quanto 2 core di un Atom. Per ora Intel campa delle alte prestazioni, dove i consumi sono il problema minore e del fatto che può integrare un numero di transistor maggiore nello stesso spazio. Oltre al fatto che ha un processo produttivo FinFET che garantisce di suo minori consumi (ma ancora non basta). In ultimo, io non ho mai detto che i 28nm di TSMC sono uguali ai 22 di Intel. Anzi. Chi sostiene questo semplicemente cerca qualche scusante per trovare del torbido là dove non conta nulla. Le carte che io ho trovato riguardo alle dimensioni dei transistor di Intel li pongono ad essere a 22nm per davvero. Anche se poco conta di per sè sapere quanto ce l'ha lungo e grosso Intel. Le dimensioni e i consumi dei suoi processori parlano da sole. D'altronde è questo che conta: in primis quanto si consuma per svolgere un determinato lavoro e in secondo luogo, quanto costa il tutto (densità = area = costo silicio). Il verdetto dice che in confronto al resto del mercato il PP di Intel è più avanti. E' a 200nm? Usa il dentifricio come substrato? Poco importa: fa processori di ultima generazione in poco più di 200mm^2 (vedere le dimensioni degli FX di AMD, giusto per confronto) e consumano molto meno della concorrenza. Questo nel mercato IPC. In quello Low IPC dove si scontra con una architettura completamente diversa e dove i consumi sono fondamentali, ecco che questo vantaggio, che è l'unico che le permette di presentare qualcosa che si possa cercare di mettere a confronto di ARM che sta su un altro pianeta, non basta più. Se i 28nm di TSMC fossero davvero così validi, AMD a quest'ora avrebbe già un suo Harahiri/Bobcat/SuperGulp (o come divaolo chiama ultimamente le sue architetture a basso consumo) prodotto da TSMC. /edit: dimenticavo l'ECX1000 (non ECX200 che è appunto il SoC A15 che ha il doppio dell'efficienza e che Intel non ha usato, guarda caso, per il confronto) ha un TDP di 5 W ma considerando anche 4GB di RAM. Ne deriva che 4 moduli Caldexa da 20W e 16GB di RAM totali consumano molto meno della soluzione Atom andando uguale (moltiplica x4 i numero della barretta verde e voilà). E stiamo confrontando 40nm vs 22nm e una architettura ARM non pensata alla performance 4 anni più vecchia. Come vedi a fare le slide con i numeri fuffa che fanno sembrare le cose migliori di quel che sono veramente è facile. Intel è maestra in questa. Dopo che ci sei cascato una volta però capisci come funziona e stai più attento. Ultima modifica di CrapaDiLegno : 16-12-2013 alle 15:52. |
|
|
|
|
|
|
#26 | |
|
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6326
|
Quote:
Ad esempio, se dai un occhiata ai core Cortex A7 ed A15, vedi la notevole differenza tra due design che rispettando i vincoli di consumo e calore dissipato, uno è progettato per dare il massimo delle prestazioni (sempre entro i vincoli di consumo e costo produttivo) mentre l'altro è progettato per consumare poco ed usare un area su chip inferiore (il core A7 è circa 1/3 di un A15), i core per applicazioni embedded (i Cortex M) sono pure più spartani. Ripeto, il motivo per cui non c'è ancora un ARM "sviluppato per la potenza pura" è che al momento non ha senso cercare lo scontro diretto in potenza di calcolo con gli x86 (visto che il grosso del mercato potenziale ha ancora il requisito della retrocompatibilità con software x86); mentre nel settore dei server di fascia alta (oltre ai requisiti di prestazioni) il mercato è più ristretto e serve tutto un ecosistema hardware dedicato di supporto ed è molto più difficile cambiare cpu se non c'è qualcuno che ti appoggia seriamente. Infatti Intel aveva provato più volte a "sfondare" nei server di fascia alta e ci è riuscita solo dopo aver stretto accordi con pezzi grossi di quella nicchia (in primo luogo HP) riguardo la commercializzazione dell'Itanium, nonostante l'Itanium non sia stato un gran successo in tale ambito ai sopravissuti a quella debacle non restava che continuare a proporre Itanium oppure x86 per la gioia di IBM e Sun (ora Oracle) che avevano continuato a proporre le loro cpu POWER ed UltraSPARC e si ritrovarono a beccari quote di mercato degli ex-concorrenti. |
|
|
|
|
|
|
#27 | |
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
Se l'unico problema fosse il limite di consumo, l'avrebbero innalzato e sfornato un ARM pompato ma questo in molti decenni in cui esiste tale architettura non si è mai verificato. Anche per i server continuano a proporre soluzioni dove la potenza arriva da configurazione strettamente basate sul numero di chip, quindi questo vincolo come lo chiami tu mi pare sia l'unica cosa che faccia stare in piedi questo ARM. Duellare con Intel e AMD nella potenza pura ha senso invece, vedi il resto dei servers e supercomputers. Perchè le console non si sono fatte fare un SoC di grosse dimensioni se la cosa fosse stata possibile ? Perchè non tirano fuori un ARM da 125W di TDP visto che secondo alcuni dovrebbe dare la paga agli x86 basandosi su quello che faceva contro i primi pentium ? A me sta cosa del "non sono fatte per" mi suona come una banale scusa. A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti. Ultima modifica di PaulGuru : 16-12-2013 alle 23:33. |
|
|
|
|
|
|
#28 | |
|
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6326
|
Quote:
o gli x86 in termini di prestazioni, solo che comunque non sfondarono perchè la retrocompatibilità con il "software per ufficio ed aziende" compilato per x86 era già diventata il vero fattore trainante.A causa di questo, quella che divenne ARM Ltd decise di concentrarsi nel settore embedded dove un architettura snella ed eficiente aveva il suo perchè (e sopratutto la retrocompatibilità era un fattore meno decisivo). Insomma tutti hanno visto cosa succede a cercare di contrastare con le prestazioni una cpu il cui vero elemento trainante è la retrocompatibilità e nessuno vuole ripetere l'errore se non quando questa non sarà più troppo rilevante. Secondo: al momento non c'è sufficiente mercato per cpu ARM ad alte prestazioni con un TDP da 125Watt, questo perchè la cpu da sola non basta, servono anche chip di supporto ad alte prestazioni ecc. ecc. altrimenti la cpu viene "strozzata" in termini di prestazioni da innumerevoli colli di bottiglia. Insomma, i costi iniziali sarebbero troppo elevati ed il mercato è saldamente in mano ad altre architetture che offrono già il "pacchetto completo. Al momento solo AMD o Google potrebbero farlo. AMD se produrrà degli "Opteron basati su ARM" (compatibili con i chip di supporto già sviluppati per gli Opteron x86-64) ma non sembra ci sia una gran fretta, probabilmente i primi ARM AMD "per server" verranno proposti per server a basso consumo. Google perchè acquista e gestisce un tal numero di server su rack ecc. ecc. che ha i numeri per fare qualcosa di customizzato al massimo per le sue esigenze inclusa la cpu e scegliendo ARM non finirebbe con il dipendere da un singolo fornitore. Ma nessuno dei due ha fretta in proposito. |
|
|
|
|
|
|
#29 | |
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Gli ARM stanno uscendo piano piano dalla tana dell'embedded, e piano piano cresceranno in dimensioni e in consumi man mano che le necessità di presenteranno. Confrontare un processore come un Celeron da 200mm^2 che richiede un bridge esterno con un SoC ARM da 80mm^2 che contine TUTTO il necessario per funzionare dimostra che ancora non hai capito la differenza di uso (e quindi di necessità) che i due processori soddisfano. Se fai una alnalisi completa del mercato delle CPU che non si fermi a quello dei PC desktop vedrai che esistono una marea di architetture nel mondo embedded e qualcuna nel mondo server. Nel mercato desktop ne è rimasta una sola e non per meriti particolari se non per la questione retro compatibilità. Là dove non serve Windows gli x86 sono dimenticati. Comprendi questo e comprendi anche il perché non c'è ANCORA una CPU ARM da 100+W. Quando il mercato SW maturerà (visto che è 30 anni che è fermo e immobilizzato dal duopolio Witel) allora vedremo il fiorire di ARM e probabilmente anche di altre architetture (MIPS non è da meno di ARM in quanto a prestazioni/W). Per ora accontentiamoci di vedere ARM mangaire come le formiche le basi su cui si fonda il dominio di Intel: grandi vendite = grandi capitali per mantenere il vantaggio sul PP. Se le vendite non vanno come si spera il mantenimento del PP non sarà più possible e il ciclo inverso a quello che ha portato Intel a dominare si invertirà. A parità di PP ARM si mangia x86 a colazione e ciò significa che questi ultimi troveranno sempre meno spazio partendo dal basso, là dove i consumi contano, per arrivare col tempo anche dove i consumi contano meno. Non serve fare la rivoluzione anti Intel oggi col rischio di venire soppressi come è stato fatto con i precedenti concorrenti. Basta aprire una breccia e la diga cadrà da sola. E la brecccia è quasi aperta. Aspettiamo le CPU ARM a 64 bit per i server. E magari anche il progetto Denver di nvidia. |
|
|
|
|
|
|
#30 |
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Le differenze le ho capite, me le avete ripetute alla nausea così come la storiella che negli anni 80 ARM batteva gli x86 ( appunto anni 80, ora hanno valenza 0 ) quello che chiedo è perchè adesso che sono in piena ascesa ed hanno un mercato sicuro non si decidono se è veramente possibile come dite a competere con i prodotti ad alto IPC.
L'ARM avrà anche un terzo dei transistors rispetto al Celeron ma appunto non è monolitico e deve appoggiarsi ad altre unità per svolgere certi calcoli e poi quello che mi chiedo è se è veramente possibile appesantire la complessità della loro architettura al fine di un maggiore IPC ( per maggiore intendo qualcosa tipo almeno un 10x per cores ) o se è destinata a rimanere tale. Perchè se vogliamo metterla così si potrebbe spingere sul calcolo eterogeneo anche sugli x86 ed eliminare i transistors delle unità float ed avere un notevole risparmio anche lì. Per quanto riguarda il chipset, non credo ci voglia molto ad integrarlo, Intel in gran parte lo ha già fatto su LGA115x, il resto lo tengono separato oramai per pura strategia di mercato. Ultima modifica di PaulGuru : 17-12-2013 alle 14:16. |
|
|
|
|
|
#31 | ||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Quote:
Quote:
Però pian piano ci si arriverà. Si parte dai server a basso consumo usando le caratteristiche proprie dell'architettura di oggi e man mano cresceranno. nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco, affiancherà una GPU di tutto rispetto per effettuare i calcoli scientifici con prestazioni ed efficienza che nessun x86 può raggiungere. Questo è il calcolo eterogeneo "ad-hoc" che è possibile fare con una architettura modulare. Con gli x86 non si può a meno che Inel non voglia e naturalemente non ha alcuna intenzione di fare in modo che delle unità fatte da altri prendano piede al posto della sua architettura monolitica. Ultima modifica di CrapaDiLegno : 17-12-2013 alle 18:06. |
||
|
|
|
|
|
#32 | |||
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
Sui server quali componenti non avrebbe scusa ? Se è per questo per ora non esistono ARM ad alte performance quindi è logico che non esistano nemmeno piattaforme che lo supportino. Quote:
Comunque sia teoricamente cosa servono i distributori se il prodotto è sempre quello ? Possono customizzarlo ma fino ad un certo punto, è proprio la Cortex che deve sfornare una nuova linea di ARM. Nvidia Denver era stato annunciato come un possibile ARM ad alte performance per desktop ma dalle ultime news questo è cambiato fino a diventare nient'altro che la successiva gen di Tegra ( o quella subito dopo, adesso non ricordo bene ) con la novità più grande rappresentata dall'architettura per la GPU, quindi nulla di chè. Magari ci approderà comunque sui desktop così come lo ha fatto Bay Trail ora anche sottoforma di Celeron ma nulla di più. Per il calcolo eterogeneo su x86 potrà non essere perfetto quanto quello con ARM ( forse ) ma AMD per esempio ha tirato fuori Huma e HSA, Nvidia ha reso disponibile l'unificazione tramite software e Intel potrebbe fare lo stesso più avanti. Aldilà dell'efficienza assoluta se decidessero un approccio simile andrebbero a tagliare tutta la parte relativa al calcolo in virgola mobile, assottigliando la differenza di transistors con ARM, lo scarto che poi un x86 può perdere da questo punto di vista può andare in secondo piano in caso di IPC generale superiore. Intel non ha bisogno di fare un architettura modulare, ha il suo reparto GPU. Quote:
Ti faccio notare che in altre sezioni c'è gente che sta sbavando su prodotti come una certa AMD R9 290X che succhia 300W a scheda singola, giusto per farti notare quanto interesse c'è da questo punto di vista. Nel GPU computing Nvidia con Tesla con un chippone da 7 miliardi di transistors sta vendendo e Intel con Xeon Phi che dal punto di vista del consumo non mi sembra vi siano tante accortezze. Ultima modifica di PaulGuru : 17-12-2013 alle 23:18. |
|||
|
|
|
|
|
#33 | ||
|
Senior Member
Iscritto dal: Jan 2007
Messaggi: 6326
|
Quote:
Considera che TUTTE le console uscite sino ad ora sul mercato sono basate su cpu che il produttore aveva "già pronte", ovvero "customizzate" ma non progettate da zero. Persino il Cell di PS3 con le sue SPU deriva da precedenti progetti di ricerca di IBM ed anche li le cpu "generiche" erano dei core PowerPC derivati da design per il settore embedded. Quote:
Premesso che tali sistemi "ad alte prestazioni" non potranno attaccare direttamente il settore desktop e notebook (il grosso dei clienti di tale settore da per scontato il requisito di retrocompatibilità con software x86), il punto d'attacco al mercato non può essere che quello dei server di fascia alta (quella "bassa" è già coperta dagli ARM per applicazioni embedded e dai SoC per smartphone/tablet). Devi avere S.O. e software già pronto e ben testato, devi avere sistemi con autodiagnostica, hardware con availability 99.999% garantita ecc. ecc. Persino il software deve dati alla mano offrire prestazioni migliori e non basta promettere che "poi migliorerà con la prossima release del compilatore". Se hai un processore più potente ma le ottimizzazioni automatiche del compilatore (o del sistema JIT) non sono ancora all'altezza o la concorrenza seppur con cpu meno performanti compensa la cosa con maggiori prestazioni di I/O verso le interfacce di rete ed i dischi, non riuscirai a trovare acquirenti. Per questo preparare il "pacchetto completo" non è uno scherzo. Tieni presente che pure Intel per "sfondare in alto" con Itanium dovette fare un accordo ferreo con HP (pure troppo, è il motivo principale per cui Intel è di fatto "obbligata" a continuare a produrre gli Itanium) perchè altrimenti l'Itanium non lo avrebbe preso nessuno. Questo perchè HP aveva già la reputazione la credibilità necessaria presso i potenziali clienti mentre Intel era quella che aveva floppato due volte (con iAPX32 e con i860). iAPX32 era stato un flop di dimensioni epiche (si fermò allo stadio di prototipo) e poi anni dopo il primo flop, Intel aveva provato a "far da se" con la cpu RISC i860 (cpu 80860 da non confondere con il chipset 860 per cpu x86) ma in pratica fu ignorata da tutti i pezzi grossi (avevano già investito forte su loro cpu che erano più o meno prestanti come i860 e cambiare gli sarebbe costato troppo). |
||
|
|
|
|
|
#34 |
|
Bannato
Iscritto dal: Feb 2013
Messaggi: 1552
|
|
|
|
|
|
|
#35 | |||||
|
Bannato
Iscritto dal: May 2012
Messaggi: 10789
|
Quote:
Quando parli di Windows in automatico ti riferisci al mondo desktop, Win Server non è così diffuso e l'open source è in netto avanzamento. Quote:
Non progetteranno mai da zero un nuovo prodotto e non vedrò mai un ARM ad alte prestazioni ? Scusa ma non è la stessa cosa ? Quote:
Quote:
Quote:
Android che altro non è che un OS basato appunto su Linux e spinto da Google. Per l'hardware i SoC dovrebbero integrare tutto, non dovrebbero avere altro HW di supporto ed avendo molti distributori diversi per ogni SoC immesso nel mercato, il proprio produttore è anche liberissimo di lasciare il proprio software di supporto. Ultima modifica di PaulGuru : 18-12-2013 alle 15:29. |
|||||
|
|
|
|
|
#36 | |||||
|
Senior Member
Iscritto dal: Jan 2011
Messaggi: 4189
|
Rispondo per l'ultima volta perché mi sembra una causa persa...
Quote:
Quote:
Quote:
Sì se le fasce basse sono quelle con i maggiori numeri di vendita e consentono guadagni investendo relativamente poco. E permettendosi di allargare piano piano il mercato senza rischiare il fallimento per aver fatto il passo più lungo della gamba. Secondo te è meglio investire mille per guadagnare 1500 qualche mese dopo o investire un milione con il rischio che non andrai mai in pari? Quote:
Chi non può fare questo (e per farlo occorre una valanga di soldi oltre che una tecnologia già bella pronta e rodata) non può sperare di fare alcuna concorrenza in un mercato che "non perdona". Quote:
Fareil proprio SW vuol dire investire alemno tanto quanto s investe nel silicio. E per anni. Oltre a IBM, MS, HP, Oracle e qualche altra azienda, non vedo come tu possa pensare che se anche ti regalo i processori più super potenterrimi del pianeta tu possa pensare di fare del SW di supporto al pari di quello che è stato creato in 50 anni in un anno. O anche 3. Samsung per quanto sia un colosso e possa fare HW decente a prezzo stracciato è ben lontana da poter sviluppare un qualcosa di paragonabile a quello che offrono IBM o HP o Oracle. Se comincia oggi forse tra 10 anni qualcuno potrebbe pensare di prendere in considerazione qualche suo prodotto. Nel frattempo però le risorse investite senza ritorno saranno enormi. Non è che non si potrà mai fare o non è possibile. Questo tipo di investimenti richiede tempo e a guardare il passato, richiede anche una certa dose di "furbizia". E' storicamente dimostrato che non è il prodotto migliore quello che vince. Accordi e capacità di lock-in sono parte delle equazioni. E non sono termini marginali. Oggi ARM ha tutta la capacità di mangiare completamente la base del mercato x86. E lo può fare senza che nessuno degli attori coinvolti nel processo rischi il fallimento. Semplicemente il prodotto è migliore di quello di Intel e Intel in questo mercato non si avvantaggia della retrocompatibilità. Ecco perché i numeri di vendita di ARM rispetto a quelli di Intel sono di 3 ordini di grandezza differenti. Il prossimo ostacolo non è di tipo prestazionale. Ma è proprio quello di fare braccia nel mondo consumer che è x86 (ma diciamo pure Windows) dipendente per il SW. Basta vedere che diffusione ha Linux sulla stessa architettura. Se non garantisci la compatibilità con Windows sei out già in partenza. Ecco allora che il mercato sta da tempo cercando di liberarsi della dipendenza da Intel usando Virtual Machine, JIT e Framework in Bytecode, sistemi cloud e thin client che permettono l'esecuzione su qualcosa di diverso da x86. Vedi proprio Android che tutti criticano perché "è lento" "lagga" "consuma più risorse"... certo tuttto vero, ma permette di girare su qualsiasi SoC (ARM, X86 e MIPS). Quando il tutto maturerà ancora di più, la questione "prestazioni" sarà secondaria perché si raggiungerà quella ben più critica della compatibilità. Più ARM cresce, meno cresce Intel. Più ARM prendono piede più risorse sono spendibili per migliorare l'ambiente ARM (sia SW che HW) a scapito di Intel. Più i produttori di chip ARM prosperano, più possibiltà hanno di investire (piano piano) in altri mercati e ridurre ulteriormente il dominio di Intel. Intel oggi cerca di entrare in un mercato che prima non ha mai guardato perché ha un processo produttivo all'avanguardia che compensa (in parte) gli svantaggi della propria architettura. Come detto tante volte, se perde quel vantaggio (e senza risorse garantite dalla vendita in grandissime quantità non può di certo mantenerlo) Intel non potrà sperare di "asfaltare" nessuno come fece negli anni passati. Intel non è vicina per niente a creare qualcosa che consumi poco. Chiediamoci perché dal 2010, quando ha deciso di portare Atom nel mondo mobile, non è riuscita a creare qualcosa che consumasse 2 o 4W (complessivi come un SoC ARM). Dato che il mondo mobile non ricerca l'uso di processori con IPC pari a un i7, fare un processore con i consumi, le prestazioni e le dimensioni di un ARM sarebbe già stato un passo avanti per cercare di ridurne l'espansione. Invece Intel può arrivare fino ad un certo punto. Più sotto non riece ad andare (anche perché a furia di rimuovere transistor per consumare meno le prestazioni ne risentono eccome). Tutti i confronti fatti oggi da Intel sono fatti o con sistemi che consumano almeno 3 volte tanto, o paragonati ad architetture ARM vetuste. Nel 2010 si presentò con un confronto contro un A8 monocore (che consumava 1/10 ed era grande pure 1/10 rispetto alla sua creatura e Intel gongolava perché andava più del doppio in int e una infinità in più in FP). Oggi si presenta con un confronto contro un A9 (del 2010), quando gli A15 sono fuori da più di un anno e gli A57 sono alle porte. Credete pure nei numeri che volete, ma la realtà è che ARM ha tutto il potenziale di miglioramento possibile, dovuto anche agli investimenti di molti attori, mentre Intel continua a deludere le aspettative. I suoi Bay Trail a 22nm mica si scontreranno con gli A9 a 40nm, ma con gli A57 a 20nm. Sono quelli i paragoni che Intel dovrebbe proprorre, non dimostrare che nel 2014 con 2 PP di vantaggio rispetto ai 40nm del 2010 ancora non è arrivata ad avere gli stessi livelli di prestazioni/consumi. I grafici precedenti quello mostrano, dato che si confronta un 20W+bridge andando 4 volte di più di un SoC che con 5W alimenta anche 4GB di RAM in un mercato dove il numero dei core non è un problema, i consumi sì. D'altronde il mercato è chiaro: in 4 anni Intel ha venduto una manciata di Atom (sopratttuo nel mercato server a basso consumo) vs qualche miliardo di ARM nel mercato mobile. Ora che ARM arriva a lambire il mercato server a basso consumo, ad Intel non basta fare qualcosa che appare migliore di un SoC ARM 4 anni più vecchio. Se perde anche quel mercato gli Atom saranno buoni solo come costose decorazioni da appendere agli alberi di Natale. Ultima modifica di CrapaDiLegno : 18-12-2013 alle 18:26. |
|||||
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 13:20.













o gli x86 in termini di prestazioni, solo che comunque non sfondarono perchè la retrocompatibilità con il "software per ufficio ed aziende" compilato per x86 era già diventata il vero fattore trainante.








