View Full Version : TSMC, produzione a 16nm forse già entro la fine del 2014
Redazione di Hardware Upg
14-12-2013, 09:31
Link alla notizia: http://www.businessmagazine.it/news/tsmc-produzione-a-16nm-forse-gia-entro-la-fine-del-2014_50173.html
La più famosa fonderia taiwanese che opera nel campo dei semiconduttori sta cercando di anticipare i tempi per la produzione FinFET a 16 nanometri
Click sul link per visualizzare la notizia.
PaulGuru
14-12-2013, 09:36
A 16nm ? E i 20nm per produrre le nuove GPU next gen però dove sono ?
i 16 sono fondamentali per la tecnologia indossabile...forse anche piu piccolo servirebbe
Sputafuoco Bill
14-12-2013, 10:39
Speriamo in processori ARM per smartphones che consumino meno.
CrapaDiLegno
14-12-2013, 12:14
A 16nm ? E i 20nm per produrre le nuove GPU next gen però dove sono ?
Sembra che la produzione di massa dei 20nm stia per partire a breve, entro la fine dell'anno. Questo vuol dire che c'è speranza che Maxwell di nvidia sia veramente a 20nm fin da subito.
Il che vorrà dire una nuova estate calda di novità. Per voi, io la mia scheda grafica l'ho appena presa e me la terrò per i prossimi 2-3 o forse anche 5 anni :D
dubito fortemente che quei 20 nm vengano dedicati alle gpu discrete... il mercato vuole i soc ed e' a quelli che verra' destinata la linea produttiva...
PaulGuru
14-12-2013, 13:36
dubito fortemente che quei 20 nm vengano dedicati alle gpu discrete... il mercato vuole i soc ed e' a quelli che verra' destinata la linea produttiva...
Fare gli uni che gli altri no eh ? :rolleyes:
francescoG1
14-12-2013, 18:53
Fare gli uni che gli altri no eh ? :rolleyes:
Si sapeva già da molto che i 20nm sono pensati SOLO per i soc, vista la vicinanza dei 16 evidentemente hanno preferito cancellare la versione per alte prestazioni quindi mi sa che nuove gpu con nuovi processi produttivi prima di fine 2014 o inizio 2015 non ci saranno. Dubito che AMD e nvidia spendano soldi per adattare l'hardwere per due processi così vicini (la produzione di massa per i 20nm partirà nel Q1 2014 e verrà assorbita tutta dai soc) considerando che i costi sono molto più alti che in passato e che i 20nm non sono proprio adatti...
OMG:eek: non ci posso credere,si vociferava ma ormai e' ufficiale
intel rinvia i 14 nm per il 2015 e tsmc anticipa i suoi 16nm:asd:
e con i 20nm per inizio 2014 tsmc surclassa intel,offrendo un pp piu' avanzato:eek:
cioe' non e' possibile,intel,la piu' grande industria di processori al mondo,la piu' avanzata,quella che fatturava piu' degli altri messi insieme,quella che investiva cifre da pil di uno stato,con due nodi di vantaggio rispetto ai competitori....:doh:
che poi i nm intel li calcola a modo suo,i 14nm sono simili ai 16,e anche gli attuali 22 non sono molto dissimili dai 28nm
un' altro gigante dai piedi d'argilla,tu guarda se intel nel medio|lungo periodo dovra' affrontare una scelta tra il destino di kodak,o una via di uscita alla nokia :sofico:
ma intanto intel si merita tanti::tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro:
PlasticPie
15-12-2013, 08:38
o Intel decide di switchare verso metodi e tecnologie diverse abbandonando i ventolosi x86 buoni per friggere i babbà (anche se molti fanatici si ostinano a dire che intel ha fatto progressi pazzeschi sul risparmio energetico, con prestazioni che gli altri si sognano, etc... ma de chè? come mai che si sente sempre più parlare di strutture server che abbandonano i "super performanti" intel? sembra la storia di quello che tesse le lodi di se stesso) oppure ne vedremo delle belle, e neanche tra molti anni.
Intel deve crollare...a discapito di quanto detto sopra, i processori della serie i3, i5, i7 sono ancora inarrivabili in ambito consumer, e hanno prestazioni ordini di grandezza superiori a quelle di ARM per applicazioni specifiche...l'architettura x86 è troppo estesa per essere paragonata a quella ARM in modo diretto, e di norma usata in applicazioni (come appunto i PC desktop o i notebook) dove serve mostrare i muscoli e non solo il minor consumo di watt...
In ogni caso i recenti Intel Atom per tablet spingono molto e danno filo da torcere agli ARM, senza troppe balle...
Non sono un fanboy, ma quello che è giusto è giusto, Intel è sul mercato da anni, dopo i processori Pentium la sua ascesa è stata incontrastata, per lo meno in ambito consumer, a discapito di AMD in primis...ora che il mercato si è allargato a nuovi competitor, è ovvio che si crea un nuovo equilibrio, dove i nuovi competitor dominano il mercato in ascesa (SOC e applicazioni dove è necessario un risparmio energetico marcato), Intel mantiene un buon dominio sulla posizione consumer, e AMD vende un pò a tutti, GPU, CPU per server etcetera...
Per il momento l'unico botto sarà quello dello spumante di capodanno xD vedremo nel 2014 se ci sarà qualche scossona seria tale da far tremare i big...
PaulGuru
15-12-2013, 16:10
OMG:eek: non ci posso credere,si vociferava ma ormai e' ufficiale
intel rinvia i 14 nm per il 2015 e tsmc anticipa i suoi 16nm:asd:
e con i 20nm per inizio 2014 tsmc surclassa intel,offrendo un pp piu' avanzato:eek:
cioe' non e' possibile,intel,la piu' grande industria di processori al mondo,la piu' avanzata,quella che fatturava piu' degli altri messi insieme,quella che investiva cifre da pil di uno stato,con due nodi di vantaggio rispetto ai competitori....:doh:
che poi i nm intel li calcola a modo suo,i 14nm sono simili ai 16,e anche gli attuali 22 non sono molto dissimili dai 28nm
un' altro gigante dai piedi d'argilla,tu guarda se intel nel medio|lungo periodo dovra' affrontare una scelta tra il destino di kodak,o una via di uscita alla nokia :sofico:
ma intanto intel si merita tanti::tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro:
Eh già il vantaggio di Intel è solo nel PP vero ? ;)
Della serie "chi se ne frega delle prestazioni". :rolleyes:
ok intel ha spalle ben coperte,ma gli arrivano spifferi ovunque
arm minaccia di soffiargli anche il mercato server,cloud
anche google pare che se li vuole progettare in casa,molti grandi produttori come apple e samsung,che da sole assorbono quasi tutto il mercato mobile mondiale,si progettano e producono soc in proprio
per tutti gli altri trovano in mediatek(l'amd dei soc arm) e qualcomm ottimi fornitori a buon prezzo
baytrail infatti e' costretta a venderlo sottocosto,e questo non gli fa certo piacere dopo tutti gli investimenti fatti per anticipare i 22nm
la stessa amd sta investendo in arm,e cmq con kavery(28nm)a breve gli rosicchia pure qualcosa ai vari i3-i5,e in futuro(era data quasi spacciata)con fonderie avanzate a disposizione,al pari se non superiori a intel,avra' tutte le potenzialita' per tornare competitiva
non so,io vedo fuoco incrociato da ogni dove,troppo grande per fallire su questo non c'e' alcun dubbio,ma dovra' rivedere il suo core business
ha gia' cominciato ad aprire le sue fab a terzi...e forse fara' produrre il prossimo atom a quarti:doh:
con le fab piu' avanzate al mondo,ma non gli conviene produrre le sue cpu:rotfl:
e certo i dindi arrivavano facilmente prima,con quasi il monopolio,e le cpu vendute a 3/4 cifre
ha combattuto e tenuto a bada la legge di moore ,ma dovra' piegarsi inevitabilmente sotto la legge di mercato:ciapet:
PaulGuru
15-12-2013, 18:23
ARM minaccia cosa ? Mercato Server ? Da quando gli ARM possono rimpiazzare unità ad elevato IPC come CPU x86 o Coprocessori ?
ARM può avanzare quanto vuole ma rimane solo un architettura dalle scarse prestazioni, il più potente le prende da Atom figurati contro un i7 4960x.
CrapaDiLegno
15-12-2013, 19:52
In ogni caso i recenti Intel Atom per tablet spingono molto e danno filo da torcere agli ARM, senza troppe balle...
Ti ricordo che gli Atom che danno file da torcere agli ARM sono prodotti con un PP di vantaggio e FinFET vs transistor tradizionale. Inoltre integrano un numero di transistor che è quadruplo rispetto ad un SoC ARM e non contengono ancora tutte le funzionalità tanto da dover richiedere ancora un bridge esterno (da considerare nei consumi).
Questo vuol dire che Intel per competere con ARM o vende sottocosto nel tentativo di uccidere la concorrenza (così detto dumping, ma la vedo difficile uccidere Apple, Samsung, Qualcomm e Mediatek tutte insieme con prezzi sopportabili per lungo periodo) oppure non concorre.
Vorrei ricordare che l'uso di un nuovo processo produttivo permette di risparmiare solo se diminuisci l'area di silicio usata. A parità di area un processo produttivo vecchio costa meno (certo integra meno transistor, ma se un x4 con PP a avanzato va come un x1 con PP vecchio, vince il secondo per prezzo).
ARM minaccia cosa ? Mercato Server ? Da quando gli ARM possono rimpiazzare unità ad elevato IPC come CPU x86 o Coprocessori ?
Nei server HIGH IPC ARM per ora non concorre, ma in quelli del nuovo mercato (cloud) e anche in parte in quello vecchio (Web) i SoC ARM con architettura 32 bit si sono già ora dimostrati migliori delle soluzioni Intel per prestazioni/Watt. Ecco perché c'è così tanta attesa per l'architettura a 64 bit degli stessi e perché sempre più attori sul mercato pensano di farsi i processori in casa. E' la forza di ARM. Non offrirà un core monolitico chiuso e blindato "faso tuto mi", ma permette di progettare SoC ad-hoc a prezzi contenuti.
Intel non ha contro ARM. Ha contro una nuova concezione di processori che permette a tutti di farsi ciò che vogliono, come vogliono a prezzi ridotti e con il controllo totale del risultato.
E man mano che le prestazioni di ARM crescono, questo mercato del fa-da-te crescerà sempre di più.
ARM può avanzare quanto vuole ma rimane solo un architettura dalle scarse prestazioni, il più potente le prende da Atom figurati contro un i7 4960x.
Il mercato degli i7 è limitato e non concorre con il mercato di ARM, così come una Panda non è nello stesso mercato di una Ferrari, pur essendo entrambe delle automobili. Per ogni i7 venduto sono vendute circa 1000 CPU con architettura ARM. Quest'anno sono state vendute 2 miliardi di CPU ARM. 2 miliardi. Intel produce sì e no 300 milioni di CPU aggregando tutte le fasce.
Là dove le due architetture si rivolgono ad un mercato ben preciso, entrambe vincono nei rispettivi campi di utilizzo. Là dove invece c'è una sovrapposizione di capacità e possibilità, per ora ARM sta facendo piazza pulita.
Visto che il nuovo mercato in super espansione non è quello degli i7 o dei server basati su Xeon a mille mila core, ma è quello mobile (e dei serve cloud che richiedono micro transazioni a consumi più bassi possibile), Intel può sfornare quanti i7 super potenti (o anche degli i9) vuole, ma con quelli sa di non poter tirare avanti molto. Le fabbriche costano ed è necessario vendere quantità (sempre più) enormi di processori per mantenerle. Il mercato core di Intel è in crisi e Intel non riesce a trovare uno sfogo nel mercato degli alti volumi tarpata da ARM.
Eh già il vantaggio di Intel è solo nel PP vero ? ;)
Della serie "chi se ne frega delle prestazioni". :rolleyes:
Nel mondo mobile ciò che permette al nome Intel di entrare in una qualsiasi analisi di prodotto è proprio il processo produttivo. Non fosse così avanti nessuno nemmeno ne parlerebbe. Anzi, forse Intel stessa nemmeno avrebbe pensato di fare qualcosa, esattamente come AMD.
Perso il primato del processo produttivo, Intel nel mobile è zero al quoto, ed è tutto da vedere fino a quando riuscirà a mantenere le fabbriche.
ARM minaccia cosa ? Mercato Server ? Da quando gli ARM possono rimpiazzare unità ad elevato IPC come CPU x86 o Coprocessori ?
ARM può avanzare quanto vuole ma rimane solo un architettura dalle scarse prestazioni, il più potente le prende da Atom figurati contro un i7 4960x.
Primo: di quale "architettura" stai parlando ?
Del modelo logico visibile al programmatore ?
Del layout circuitale ?
Della sua implementazione con uno specifico processo produttivo e con specifici obiettivi di prestazioni e consumi ?
Al momento i core ARM più potenti sono progettati a livello di layout circuitale
per essere poi implementati come parte di un SoC da utilizzare in smarphone e tablet (traduzione: prima devono rispettare vincoli in termini di consumo e di dissipazione termica e poi si pensa alle prestazioni).
Negli anni '80 i primi ARM "commerciali" che per qualche tempo vennero usati anche in home computer spaccavano le rotule agli x86 più potenti in termini di prestazioni pure, anche se usavano molti meno transistor e viaggiavano a clock più basso.
Solo che non erano compatibili con il software per x86 che già allora era il vero punto di forza per gli x86, non le prestazioni pure.
Se ora qualcuno decidesse di progettare un ARM "privilegiando le prestazioni"
a parità di consumi, tecnologia produttiva e di superficie del chip probabilmente otterrebbe qualcosa che viaggia 2..3 volte più di in x86 in termini di potenza di calcolo complessiva.
Solo che non è ancora il momento (per ora).
Per rendere l'idea, negli anni '90 la cpu più potente era l'Alpha di DEC, era da 2 a 4 volte più potente degli x86 suoi contemporanei, ma il mercato degli x86 era in continua espansione mentre quello delle workstation "di fascia alta" e dei server RISC stava riducendosi sempre più, al punto che per gli Alpha era pure proposto Windows NT (a 32bit, ma per cpu Alpha) che oltre a far girare software Windows compilato ad hoc per l'Alpha, poteva far girare software x86 tramite un emulatore (ma ovviamente più lentamente di un x86 nativo).
Ma a dare il colpo di grazia ad Alpha di DEC (por Compaq), al PA-RISC di HP ed al MIPS "per workstation e server" di SGI, non furono le prestazioni degli x86 del periodo, ma gli accordi commerciali fatti da Intel con HP, Compaq ed SGI in vista del lancio di Itanium.
Itanium fu poi sotto vari aspetti un flop, ma se non altro eliminò parecchi concorrenti (grazie agli accordi già siglati, mica alle sue prestazioni) ed allo stesso tempo Intel fu "costretta" a spingere al massimo la linea x86 per non farsi soffiare il mercato da AMD (che con Athlon e poi Athlon64 'aveva superata sia in prestazioni pure che in innovazione architetturale).
Ora è il mercato degli x86 che si sta restringendo e quello degli ARM che si sta espandendo, in un certo senso sta avvenendo ai danni di Intel lo stesso processo che ha reso sempre meno competitivi i suoi ex-concorrenti di fascia alta.
Ma il vecchio asso nella manica di Intel continua a sostenerla (per ora).
Il motivo per cui i produttori di cpu/SoC ARM stanno iniziando ad attaccare certe nicchie del settore dei server è che in esse la retrocompatibilità con software per x86 è irrilevante ed il mix prestazioni/consumi/prezzo è simile a quello di smartphone e tablet (anche se alcuni produttori stanno iniziando a proporre SoC ottimizzati per "server embedded" dotandoli di interfacce SATA ed altra roba "da pc/server").
Paradossalmente il "nemico" maggiore di Intel è ... Microsoft, questo perchè se Microsoft continuerà a spingere le API WinRT ed il suo Store, la retrocompatibilità x86 diventerà sempre meno importante e prima o poi qualcuno attaccherà Intel anche a livello di desktop/notebook e server di fascia medio-alta.
carlottoIIx6
16-12-2013, 01:32
OMG:eek: non ci posso credere,si vociferava ma ormai e' ufficiale
intel rinvia i 14 nm per il 2015 e tsmc anticipa i suoi 16nm:asd:
e con i 20nm per inizio 2014 tsmc surclassa intel,offrendo un pp piu' avanzato:eek:
cioe' non e' possibile,intel,la piu' grande industria di processori al mondo,la piu' avanzata,quella che fatturava piu' degli altri messi insieme,quella che investiva cifre da pil di uno stato,con due nodi di vantaggio rispetto ai competitori....:doh:
che poi i nm intel li calcola a modo suo,i 14nm sono simili ai 16,e anche gli attuali 22 non sono molto dissimili dai 28nm
un' altro gigante dai piedi d'argilla,tu guarda se intel nel medio|lungo periodo dovra' affrontare una scelta tra il destino di kodak,o una via di uscita alla nokia :sofico:
ma intanto intel si merita tanti::tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro: :tapiro:
ti sei persa la notizia che i 22nm intel non sono in realtà 22nm ma 26nm e che i 28nm semprerebbe essere meglio dei presunti 22nm intel.
intellina menzognera :D
CrapaDiLegno
16-12-2013, 09:11
ti sei persa la notizia che i 22nm intel non sono in realtà 22nm ma 26nm e che i 28nm semprerebbe essere meglio dei presunti 22nm intel.
intellina menzognera :D
Sembra che la notizia sia più alimentata dalla voglia di trovare qualcsa di "sporco" in casa Intel piuttosto che rivelare qualcosa di oggettivamente concreto.
Come ognuno misuri la nanometria del proprio processo produttivo o quali numeri grezzi spari su un foglio di carta è alquanto irrilevante: quello che conta alla fine è la vera dimensione del transistor (che definisce la densità possibile) e il suo rendimento (che definisce quanto consuma).
Un modo per misurare le capacità di densità del PP è usare le celle delle SRAM, che sono normalmente il primo test di produzione di un nuovo proceso produttivo. E' una struttra semplice e sopratutto ben definita, quindi uguale per tutti.
Leggendo un po' in giro ne risulta che le dimensioni di una cella SRAM prodotta con i 28nm di TSMC è di 0.127um^2, mentre quella realizzata con il PP a 22nm di Intel è di 0.08um^2 (contro una teorica a 22nm di 0.078). E questo testimonia la capacità di Intel di mettere una quantità di transistor decisamente maggiore nella stessa area rispetto a tutti gli altri.
La seconda questione, quella legata ai consumi, la lascio come compito a casa per i lettori. Non ha alcuna importanza come si misura un PP quando la capacità di Intel di creare un PP che consuma quasi la metà del migliore adottato dalla concorrenza consuma quasi il doppio.
Inutile tentare di negare l'evidenza, il processo produttivo di Intel è decisamente più avanzato di quelli disponibili a tutti gli altri. Per ora.
PaulGuru
16-12-2013, 09:35
Al momento i core ARM più potenti sono progettati a livello di layout circuitale
per essere poi implementati come parte di un SoC da utilizzare in smarphone e tablet (traduzione: prima devono rispettare vincoli in termini di consumo e di dissipazione termica e poi si pensa alle prestazioni).
Ti ricordo che gli Atom che danno file da torcere agli ARM sono prodotti con un PP di vantaggio e FinFET vs transistor tradizionale. Inoltre integrano un numero di transistor che è quadruplo rispetto ad un SoC ARM e non contengono ancora tutte le funzionalità tanto da dover richiedere ancora un bridge esterno (da considerare nei consumi).
Questo vuol dire che Intel per competere con ARM o vende sottocosto nel tentativo di uccidere la concorrenza (così detto dumping, ma la vedo difficile uccidere Apple, Samsung, Qualcomm e Mediatek tutte insieme con prezzi sopportabili per lungo periodo) oppure non concorre.
Vorrei ricordare che l'uso di un nuovo processo produttivo permette di risparmiare solo se diminuisci l'area di silicio usata. A parità di area un processo produttivo vecchio costa meno (certo integra meno transistor, ma se un x4 con PP a avanzato va come un x1 con PP vecchio, vince il secondo per prezzo).
Nei server HIGH IPC ARM per ora non concorre, ma in quelli del nuovo mercato (cloud) e anche in parte in quello vecchio (Web) i SoC ARM con architettura 32 bit si sono già ora dimostrati migliori delle soluzioni Intel per prestazioni/Watt. Ecco perché c'è così tanta attesa per l'architettura a 64 bit degli stessi e perché sempre più attori sul mercato pensano di farsi i processori in casa. E' la forza di ARM. Non offrirà un core monolitico chiuso e blindato "faso tuto mi", ma permette di progettare SoC ad-hoc a prezzi contenuti.
Intel non ha contro ARM. Ha contro una nuova concezione di processori che permette a tutti di farsi ciò che vogliono, come vogliono a prezzi ridotti e con il controllo totale del risultato.
E man mano che le prestazioni di ARM crescono, questo mercato del fa-da-te crescerà sempre di più.
Visto che il nuovo mercato in super espansione non è quello degli i7 o dei server basati su Xeon a mille mila core, ma è quello mobile (e dei serve cloud che richiedono micro transazioni a consumi più bassi possibile), Intel può sfornare quanti i7 super potenti (o anche degli i9) vuole, ma con quelli sa di non poter tirare avanti molto. Le fabbriche costano ed è necessario vendere quantità (sempre più) enormi di processori per mantenerle. Il mercato core di Intel è in crisi e Intel non riesce a trovare uno sfogo nel mercato degli alti volumi tarpata da ARM.
Nel mondo mobile ciò che permette al nome Intel di entrare in una qualsiasi analisi di prodotto è proprio il processo produttivo. Non fosse così avanti nessuno nemmeno ne parlerebbe. Anzi, forse Intel stessa nemmeno avrebbe pensato di fare qualcosa, esattamente come AMD.
Perso il primato del processo produttivo, Intel nel mobile è zero al quoto, ed è tutto da vedere fino a quando riuscirà a mantenere le fabbriche.
Con l'X86 i margini di cresciti in termini di IPC puro erano nettamente superiori, se con ARM ci fosse stata la possibilità di tirare fuori qualcosa di decente sarebbe già stato annunciato o uscito. Nvidia ci ha pensato più volte e per le console next gen sarebbe stato decisamente più appetibile nonostante montino ora una cpu scarsa, ancora meglio su servers.
Il fatto di non essere una cpu monolitica è un vantaggio ed uno svantaggio perchè senza componenti opzionali non è in grado di fornire la prestazione ovunque.
Se vogliamo entrare nel mondo del calcolo eterogeneo a questo punto anche gli X86 andrebbero ad eliminare la parte relativa al FPU in favore di una GPU che fa da coprocessore.
Parli di Intel che sta nel mobile per il processo produttivo ma dici anche che il 22nm di Intel è quasi come il vecchio 28nm di TSMC, quindi di cosa stiamo parlando ? Che nel peggiore dei casi andrà alla pari potendo se stessa utilizzare TSMC come produttore esterno ?
Forse per il consumo assoluto ARM è migliore ma come consumo / prestazioni Intel è competitivo e attualmente un Atom Bay Trail è superiore a qualsiasi ARM e la prossimo serie punterà ad avere un IPC per core di un Phenom 2, quindi sarei veramente curioso a vedere come faranno gli ARM a contro battere anche a pari PP.
Qualche settimana fa ho letto una news interessante riguardo i bay trail versione server
http://www.bitsandchips.it/hardware/9-hardware/3585-hp-con-project-moonshot-punta-sull-efficienza-tagliando-fuori-intel
e in uno dei commenti si può leggere...
http://anandtech.com/show/7265/intels-second-generation-microserver-soc
De Gelas di Anandtech taglia le gambe ai nuovi Atom Silvermont. I Centerton vanno la metà dei SoC Calxeda nei calcoli Integer e consumano il doppio. Morale della favola, hanno 1/4 dell'efficienza
Vedremo..
PaulGuru
16-12-2013, 09:49
Qualche settimana fa ho letto una news interessante riguardo i bay trail versione server
http://www.bitsandchips.it/hardware/9-hardware/3585-hp-con-project-moonshot-punta-sull-efficienza-tagliando-fuori-intel
e in uno dei commenti si può leggere...
http://anandtech.com/show/7265/intels-second-generation-microserver-soc
De Gelas di Anandtech taglia le gambe ai nuovi Atom Silvermont. I Centerton vanno la metà dei SoC Calxeda nei calcoli Integer e consumano il doppio. Morale della favola, hanno 1/4 dell'efficienza
Vedremo..
Leggi il secondo articolo che hai linkato :
ARM, quindi, potrebbe diventare effettivamente padrona dei server a basso costo lasciando, almeno momentaneamente, Intel padrona di quelli ad alte prestazioni.
I Centerton sono basati sulla generazione vecchia, ancora 40-32nm con 2 cores ed HT e senza architettura OoOE ( "out of order" ).
Inoltre a patto che quei dati siano veri, misurano solo il lato integer e non il float ?
Dimonios
16-12-2013, 09:58
Leggendo un po' in giro ne risulta che le dimensioni di una cella SRAM prodotta con i 28nm di TSMC è di 0.127um^2, mentre quella realizzata con il PP a 22nm di Intel è di 0.08um^2 (contro una teorica a 22nm di 0.078). E questo testimonia la capacità di Intel di mettere una quantità di transistor decisamente maggiore nella stessa area rispetto a tutti gli altri.
Dal forum di Anand (http://forums.anandtech.com/showthread.php?p=35433816):
Also, as IDC mentioned above, this is the theoretical best. Intel's 22nm node has a maximum 6T SRAM density of 0.092 µm²/bit, but their largest 22nm SRAM cells have a density of 0.130 µm²/bit, which coincidentally is the exact area of TSMC's maximum SRAM cell density.
cut
Non riesco a capire se ci sei o ci fai....
Un altro da aggiungere alla ignore list...
Oramai per i moderatori bannare i cloni non è più una priorità....
PaulGuru
16-12-2013, 10:19
Non riesco a capire se ci sei o ci fai....
Un altro da aggiungere alla ignore list...
Oramai per i moderatori bannare i cloni non è più una priorità....
Clone di chi ? Ma non sapete dire altre frasi ? ogni volta che qualcuno difende Intel gli deve essere dato del fanboy, del clone o del troll ?
Se vuoi sostenere una discussione è una cosa, se non ti va di sforzarti troppo allora lascia perdere proprio la discussione.
Ti ho solo fatto notare che i Centerton non sono affatto Bay Trail e senza benchmark veri ogni cosa è in dubbio e la parola di qualche distributore o portale specie bitsandchips lasciano il tempo che trovano.
Anzi fino ad ora c'è solo questo visto che prima si parlava di servizi web e cloud :
http://images.anandtech.com/doci/7265/Avotonperf_575px.png
L'ECX2000 in questione inoltre ha un TDP dichiarato di 16W, mentre l'Atom C2530 20W, ti sembra il doppio ?
CrapaDiLegno
16-12-2013, 13:03
Clone di chi ? Ma non sapete dire altre frasi ? ogni volta che qualcuno difende Intel gli deve essere dato del fanboy, del clone o del troll ?
Se vuoi sostenere una discussione è una cosa, se non ti va di sforzarti troppo allora lascia perdere proprio la discussione.
Ti ho solo fatto notare che i Centerton non sono affatto Bay Trail e senza benchmark veri ogni cosa è in dubbio e la parola di qualche distributore o portale specie bitsandchips lasciano il tempo che trovano.
Anzi fino ad ora c'è solo questo visto che prima si parlava di servizi web e cloud :
http://images.anandtech.com/doci/7265/Avotonperf_575px.png
L'ECX2000 in questione inoltre ha un TDP dichiarato di 16W, mentre l'Atom C2530 20W, ti sembra il doppio ?
Allora facciamo un po' di ordine.
In primo luogo, come è da prassi Intel, il confronto lo stai facendo tra l'ultimo processore a 22nm con uno del 2010 a 40nm (gli A9 di Caldexa). Già qui la dice lunga sulla voglia di Intel di confrontarsi, non dico con gli ultimi A53/A57 che non si sono ancora affacciati sul mercato, ma almeno un A15 a 28nm.
Secondo i 20W del processore Intel è un valore inutile da considerare, dato che nei 5W del SoC Caldexa è contenuto TUTTO il necessario per far funzionare il server (network escluso), mentre l'Atom richiede ancora un chipset esterno, non fatto a 22nm e che consuma pure lui. Quelli non li consideriamo?
Infine, inutile stare qui a farsi le menate su tabelle e grafici palesemente falsificati nei confronti (se lo confrontava con un A8 monocore la barretta blu sarebbe andata alle stelle! Che informazioni utile sarebbe stata, vero? Forse no, però sicuramente a livello commerciale che bella figura!).
Quello che conta è ciò che il mercato sta chiedendo. Il mercato di server a basso IPC e bassissimo consumo è in crescita. Però non si guarda a Intel. Caldexa e molti altri hanno già presentato delle soluzioni acerbe ma che mostrano le enormi potenzialità che si possono avere con le nuove architetture ARM a 64 bit.
Infatti, guardacaso, tutti i produttori di SoC ARM stanno facendo proclami di SoC a 64 bit (e chi crede siano destinati agi smartphone crede male) e la stessa AMD ha intenzione di occupare parte di questo nuovo mercat con degli Opteron basati su ARM.
Intel sono 3 generazioni che dice che i suoi Atom sono migliori dei processori ARM, ma sono 3 generazioni che non ne vende uno nel mondo mobile, e difatti appena presentato un Atom nuovo di pacca si affretta a dire che i prossimi (sempre a nanometria inferiore ovviamente) sarà ancora meglio e sarà imbattibile dal resto del mondo, giusto per dimostrare ai potenziali clienti che Intel sta migliorando e che non si deve abbandonarla. Ma purtroppo, a meno che Intel non paghi e sovvenzioni dei progetti pilota, NESSUN produttore di dispositivi mobile prende in considerazione l'uso degli Atom. Smartphone e tablet con ARM venduti quest'anno circa 1 miliardo, Atom venduti NP.
ARM non ha bisogno di fare alcun proclamo su un bel niente, dato che per lei parlano le cifre da sole: consumi/prestazioni è imbattibile, non c'è Atom a 22 nm che tenga. Dal punto di vista costi è altrettanto imbattibile, dato che un SoC ARM che integra tutto è grande in numero di transistori quanto 2 core di un Atom.
Per ora Intel campa delle alte prestazioni, dove i consumi sono il problema minore e del fatto che può integrare un numero di transistor maggiore nello stesso spazio. Oltre al fatto che ha un processo produttivo FinFET che garantisce di suo minori consumi (ma ancora non basta).
In ultimo, io non ho mai detto che i 28nm di TSMC sono uguali ai 22 di Intel. Anzi. Chi sostiene questo semplicemente cerca qualche scusante per trovare del torbido là dove non conta nulla.
Le carte che io ho trovato riguardo alle dimensioni dei transistor di Intel li pongono ad essere a 22nm per davvero. Anche se poco conta di per sè sapere quanto ce l'ha lungo e grosso Intel. Le dimensioni e i consumi dei suoi processori parlano da sole. D'altronde è questo che conta: in primis quanto si consuma per svolgere un determinato lavoro e in secondo luogo, quanto costa il tutto (densità = area = costo silicio).
Il verdetto dice che in confronto al resto del mercato il PP di Intel è più avanti. E' a 200nm? Usa il dentifricio come substrato? Poco importa: fa processori di ultima generazione in poco più di 200mm^2 (vedere le dimensioni degli FX di AMD, giusto per confronto) e consumano molto meno della concorrenza. Questo nel mercato IPC.
In quello Low IPC dove si scontra con una architettura completamente diversa e dove i consumi sono fondamentali, ecco che questo vantaggio, che è l'unico che le permette di presentare qualcosa che si possa cercare di mettere a confronto di ARM che sta su un altro pianeta, non basta più.
Se i 28nm di TSMC fossero davvero così validi, AMD a quest'ora avrebbe già un suo Harahiri/Bobcat/SuperGulp (o come divaolo chiama ultimamente le sue architetture a basso consumo) prodotto da TSMC.
/edit: dimenticavo l'ECX1000 (non ECX200 che è appunto il SoC A15 che ha il doppio dell'efficienza e che Intel non ha usato, guarda caso, per il confronto) ha un TDP di 5 W ma considerando anche 4GB di RAM.
Ne deriva che 4 moduli Caldexa da 20W e 16GB di RAM totali consumano molto meno della soluzione Atom andando uguale (moltiplica x4 i numero della barretta verde e voilà). E stiamo confrontando 40nm vs 22nm e una architettura ARM non pensata alla performance 4 anni più vecchia.
Come vedi a fare le slide con i numeri fuffa che fanno sembrare le cose migliori di quel che sono veramente è facile. Intel è maestra in questa. Dopo che ci sei cascato una volta però capisci come funziona e stai più attento.
Con l'X86 i margini di cresciti in termini di IPC puro erano nettamente superiori, se con ARM ci fosse stata la possibilità di tirare fuori qualcosa di decente sarebbe già stato annunciato o uscito.
Mi sa che ti è nuovamente sfuggita la parte riguardo i vincoli sui consumi di corrente e calore dissipato e riguardo il discorso della retrocompatibilità. :rolleyes:
Ad esempio, se dai un occhiata ai core Cortex A7 ed A15, vedi la notevole differenza tra due design che rispettando i vincoli di consumo e calore dissipato, uno è progettato per dare il massimo delle prestazioni (sempre entro i vincoli di consumo e costo produttivo) mentre l'altro è progettato per consumare poco ed usare un area su chip inferiore (il core A7 è circa 1/3 di un A15), i core per applicazioni embedded (i Cortex M) sono pure più spartani.
Ripeto, il motivo per cui non c'è ancora un ARM "sviluppato per la potenza pura" è che al momento non ha senso cercare lo scontro diretto in potenza di calcolo con gli x86 (visto che il grosso del mercato potenziale ha ancora il requisito della retrocompatibilità con software x86); mentre nel settore dei server di fascia alta (oltre ai requisiti di prestazioni) il mercato è più ristretto e serve tutto un ecosistema hardware dedicato di supporto ed è molto più difficile cambiare cpu se non c'è qualcuno che ti appoggia seriamente.
Infatti Intel aveva provato più volte a "sfondare" nei server di fascia alta e ci è riuscita solo dopo aver stretto accordi con pezzi grossi di quella nicchia (in primo luogo HP) riguardo la commercializzazione dell'Itanium, nonostante l'Itanium non sia stato un gran successo in tale ambito ai sopravissuti a quella debacle non restava che continuare a proporre Itanium oppure x86 per la gioia di IBM e Sun (ora Oracle) che avevano continuato a proporre le loro cpu POWER ed UltraSPARC e si ritrovarono a beccari quote di mercato degli ex-concorrenti.
PaulGuru
16-12-2013, 22:25
Mi sa che ti è nuovamente sfuggita la parte riguardo i vincoli sui consumi di corrente e calore dissipato e riguardo il discorso della retrocompatibilità. :rolleyes:
Non parlo dei SoC attualmente nel mercato.
Se l'unico problema fosse il limite di consumo, l'avrebbero innalzato e sfornato un ARM pompato ma questo in molti decenni in cui esiste tale architettura non si è mai verificato.
Anche per i server continuano a proporre soluzioni dove la potenza arriva da configurazione strettamente basate sul numero di chip, quindi questo vincolo come lo chiami tu mi pare sia l'unica cosa che faccia stare in piedi questo ARM.
Duellare con Intel e AMD nella potenza pura ha senso invece, vedi il resto dei servers e supercomputers.
Perchè le console non si sono fatte fare un SoC di grosse dimensioni se la cosa fosse stata possibile ?
Perchè non tirano fuori un ARM da 125W di TDP visto che secondo alcuni dovrebbe dare la paga agli x86 basandosi su quello che faceva contro i primi pentium ?
A me sta cosa del "non sono fatte per" mi suona come una banale scusa.
A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti.
Non parlo dei SoC attualmente nel mercato.
Se l'unico problema fosse il limite di consumo, l'avrebbero innalzato e sfornato un ARM pompato ma questo in molti decenni in cui esiste tale architettura non si è mai verificato.
Anche per i server continuano a proporre soluzioni dove la potenza arriva da configurazione strettamente basate sul numero di chip, quindi questo vincolo come lo chiami tu mi pare sia l'unica cosa che faccia stare in piedi questo ARM.
Duellare con Intel e AMD nella potenza pura ha senso invece, vedi il resto dei servers e supercomputers.
Perchè le console non si sono fatte fare un SoC di grosse dimensioni se la cosa fosse stata possibile ?
Perchè non tirano fuori un ARM da 125W di TDP visto che secondo alcuni dovrebbe dare la paga agli x86 basandosi su quello che faceva contro i primi pentium ?
A me sta cosa del "non sono fatte per" mi suona come una banale scusa.
A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti.
Primo: appena uscito sul mercato, negli anni '80 gli ARM avevano preso sonoramente a calci in cu:ciapet:o gli x86 in termini di prestazioni, solo che comunque non sfondarono perchè la retrocompatibilità con il "software per ufficio ed aziende" compilato per x86 era già diventata il vero fattore trainante.
A causa di questo, quella che divenne ARM Ltd decise di concentrarsi nel settore embedded dove un architettura snella ed eficiente aveva il suo perchè
(e sopratutto la retrocompatibilità era un fattore meno decisivo).
Insomma tutti hanno visto cosa succede a cercare di contrastare con le prestazioni una cpu il cui vero elemento trainante è la retrocompatibilità e nessuno vuole ripetere l'errore se non quando questa non sarà più troppo rilevante.
Secondo: al momento non c'è sufficiente mercato per cpu ARM ad alte prestazioni con un TDP da 125Watt, questo perchè la cpu da sola non basta, servono anche chip di supporto ad alte prestazioni ecc. ecc.
altrimenti la cpu viene "strozzata" in termini di prestazioni da innumerevoli colli di bottiglia.
Insomma, i costi iniziali sarebbero troppo elevati ed il mercato è saldamente in mano ad altre architetture che offrono già il "pacchetto completo.
Al momento solo AMD o Google potrebbero farlo.
AMD se produrrà degli "Opteron basati su ARM" (compatibili con i chip di supporto già sviluppati per gli Opteron x86-64) ma non sembra ci sia una gran fretta, probabilmente i primi ARM AMD "per server" verranno proposti per server a basso consumo.
Google perchè acquista e gestisce un tal numero di server su rack ecc. ecc. che ha i numeri per fare qualcosa di customizzato al massimo per le sue esigenze inclusa la cpu e scegliendo ARM non finirebbe con il dipendere da un singolo fornitore.
Ma nessuno dei due ha fretta in proposito.
CrapaDiLegno
17-12-2013, 12:46
A7 e A15 sono anche diversi ma come fascia rimangono sempre relegati molto in basso come IPC, un Bay Trail li batte entrambi, figurati un Celeron, possono anche crescere velocemente ma siamo ancora in alto mare, anzi non sarebbero nemmeno partiti.
Cosa non hai capito che le prestazioni dei processsori Intel rispetto a quelli ARM hanno più prestazioni ma consumano di più e sono più gradi in termini di transistor = maggior costo?
Gli ARM stanno uscendo piano piano dalla tana dell'embedded, e piano piano cresceranno in dimensioni e in consumi man mano che le necessità di presenteranno.
Confrontare un processore come un Celeron da 200mm^2 che richiede un bridge esterno con un SoC ARM da 80mm^2 che contine TUTTO il necessario per funzionare dimostra che ancora non hai capito la differenza di uso (e quindi di necessità) che i due processori soddisfano.
Se fai una alnalisi completa del mercato delle CPU che non si fermi a quello dei PC desktop vedrai che esistono una marea di architetture nel mondo embedded e qualcuna nel mondo server. Nel mercato desktop ne è rimasta una sola e non per meriti particolari se non per la questione retro compatibilità. Là dove non serve Windows gli x86 sono dimenticati. Comprendi questo e comprendi anche il perché non c'è ANCORA una CPU ARM da 100+W.
Quando il mercato SW maturerà (visto che è 30 anni che è fermo e immobilizzato dal duopolio Witel) allora vedremo il fiorire di ARM e probabilmente anche di altre architetture (MIPS non è da meno di ARM in quanto a prestazioni/W). Per ora accontentiamoci di vedere ARM mangaire come le formiche le basi su cui si fonda il dominio di Intel: grandi vendite = grandi capitali per mantenere il vantaggio sul PP. Se le vendite non vanno come si spera il mantenimento del PP non sarà più possible e il ciclo inverso a quello che ha portato Intel a dominare si invertirà.
A parità di PP ARM si mangia x86 a colazione e ciò significa che questi ultimi troveranno sempre meno spazio partendo dal basso, là dove i consumi contano, per arrivare col tempo anche dove i consumi contano meno.
Non serve fare la rivoluzione anti Intel oggi col rischio di venire soppressi come è stato fatto con i precedenti concorrenti. Basta aprire una breccia e la diga cadrà da sola. E la brecccia è quasi aperta. Aspettiamo le CPU ARM a 64 bit per i server. E magari anche il progetto Denver di nvidia.
PaulGuru
17-12-2013, 13:11
Le differenze le ho capite, me le avete ripetute alla nausea così come la storiella che negli anni 80 ARM batteva gli x86 ( appunto anni 80, ora hanno valenza 0 ) quello che chiedo è perchè adesso che sono in piena ascesa ed hanno un mercato sicuro non si decidono se è veramente possibile come dite a competere con i prodotti ad alto IPC.
L'ARM avrà anche un terzo dei transistors rispetto al Celeron ma appunto non è monolitico e deve appoggiarsi ad altre unità per svolgere certi calcoli e poi quello che mi chiedo è se è veramente possibile appesantire la complessità della loro architettura al fine di un maggiore IPC ( per maggiore intendo qualcosa tipo almeno un 10x per cores ) o se è destinata a rimanere tale.
Perchè se vogliamo metterla così si potrebbe spingere sul calcolo eterogeneo anche sugli x86 ed eliminare i transistors delle unità float ed avere un notevole risparmio anche lì. Per quanto riguarda il chipset, non credo ci voglia molto ad integrarlo, Intel in gran parte lo ha già fatto su LGA115x, il resto lo tengono separato oramai per pura strategia di mercato.
CrapaDiLegno
17-12-2013, 16:57
Le differenze le ho capite, me le avete ripetute alla nausea così come la storiella che negli anni 80 ARM batteva gli x86 ( appunto anni 80, ora hanno valenza 0 ) quello che chiedo è perchè adesso che sono in piena ascesa ed hanno un mercato sicuro non si decidono se è veramente possibile come dite a competere con i prodotti ad alto IPC.
Sembra che tu non abbia capito: mercato high IPC = desktop (dominio x86 per retrocompatibilità... pensa solo a un PC senza Windows che mercato può avere) o server, dove sono necessari altri componenti HW e SW che per ora per ARM non esistono.
L'ARM avrà anche un terzo dei transistors rispetto al Celeron ma appunto non è monolitico e deve appoggiarsi ad altre unità per svolgere certi calcoli e poi quello che mi chiedo è se è veramente possibile appesantire la complessità della loro architettura al fine di un maggiore IPC ( per maggiore intendo qualcosa tipo almeno un 10x per cores ) o se è destinata a rimanere tale.
Tale cosa vuol dire? Fare una CPU da 100W richiede uno sforzo di ingegneria mica da ridere e i costi di produzione si alzano a razzo. Per ammortizzare i costi devi venderne a camionate o a prezzi altissimi. Non mi sembra che un qualsiasi produttore di chip ARM (o non x86) abbia questa possibilità o potenzialità al momento.
Però pian piano ci si arriverà. Si parte dai server a basso consumo usando le caratteristiche proprie dell'architettura di oggi e man mano cresceranno.
nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco, affiancherà una GPU di tutto rispetto per effettuare i calcoli scientifici con prestazioni ed efficienza che nessun x86 può raggiungere.
Questo è il calcolo eterogeneo "ad-hoc" che è possibile fare con una architettura modulare. Con gli x86 non si può a meno che Inel non voglia e naturalemente non ha alcuna intenzione di fare in modo che delle unità fatte da altri prendano piede al posto della sua architettura monolitica.
PaulGuru
17-12-2013, 21:58
Sembra che tu non abbia capito: mercato high IPC = desktop (dominio x86 per retrocompatibilità... pensa solo a un PC senza Windows che mercato può avere) o server, dove sono necessari altri componenti HW e SW che per ora per ARM non esistono.
Mercato PC senza Windows ? SteamOS ti dice qualcosa ? Windows = Games.
Sui server quali componenti non avrebbe scusa ? Se è per questo per ora non esistono ARM ad alte performance quindi è logico che non esistano nemmeno piattaforme che lo supportino.
Tale cosa vuol dire? Fare una CPU da 100W richiede uno sforzo di ingegneria mica da ridere e i costi di produzione si alzano a razzo. Per ammortizzare i costi devi venderne a camionate o a prezzi altissimi. Non mi sembra che un qualsiasi produttore di chip ARM (o non x86) abbia questa possibilità o potenzialità al momento.
Però pian piano ci si arriverà. Si parte dai server a basso consumo usando le caratteristiche proprie dell'architettura di oggi e man mano cresceranno.
nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco, affiancherà una GPU di tutto rispetto per effettuare i calcoli scientifici con prestazioni ed efficienza che nessun x86 può raggiungere.
Questo è il calcolo eterogeneo "ad-hoc" che è possibile fare con una architettura modulare. Con gli x86 non si può a meno che Inel non voglia e naturalemente non ha alcuna intenzione di fare in modo che delle unità fatte da altri prendano piede al posto della sua architettura monolitica.
ARM è un prodotto aperto accessibile a molti distributori, vuoi dirmi che a partire da Google, Samsung ( il più grande colosso dell'elettronica ) ad Apple, ad AMD e ad Nvidia nessuno ha i fondi ? Soprattutto Nvidia che sembrava già interessata dopo i proclami di Denver ?
Comunque sia teoricamente cosa servono i distributori se il prodotto è sempre quello ? Possono customizzarlo ma fino ad un certo punto, è proprio la Cortex che deve sfornare una nuova linea di ARM.
Nvidia Denver era stato annunciato come un possibile ARM ad alte performance per desktop ma dalle ultime news questo è cambiato fino a diventare nient'altro che la successiva gen di Tegra ( o quella subito dopo, adesso non ricordo bene ) con la novità più grande rappresentata dall'architettura per la GPU, quindi nulla di chè. Magari ci approderà comunque sui desktop così come lo ha fatto Bay Trail ora anche sottoforma di Celeron ma nulla di più.
Per il calcolo eterogeneo su x86 potrà non essere perfetto quanto quello con ARM ( forse ) ma AMD per esempio ha tirato fuori Huma e HSA, Nvidia ha reso disponibile l'unificazione tramite software e Intel potrebbe fare lo stesso più avanti.
Aldilà dell'efficienza assoluta se decidessero un approccio simile andrebbero a tagliare tutta la parte relativa al calcolo in virgola mobile, assottigliando la differenza di transistors con ARM, lo scarto che poi un x86 può perdere da questo punto di vista può andare in secondo piano in caso di IPC generale superiore.
Intel non ha bisogno di fare un architettura modulare, ha il suo reparto GPU.
nvidia ci proverà nel mercato HPC con il progetto Denver che a dispetto dell'uso di core ARM che non dovrebbero avere grandi capacità di calcolo ma che comunuqe consumao poco,
Scusa eh .... ma se non vanno siamo al punto daccapo, la prestazione è indispensabile, a me sinceramente che consuma poco non me ne può fregare de meno, di sicuro che mi sparo una conversione video pesante o faccio un rendering 3D o avvio semplicemente un videogioco di quelli a tripla AAA ( non i giochi del cellulare ) di un procio che consuma poco non me ne faccio nulla.
Ti faccio notare che in altre sezioni c'è gente che sta sbavando su prodotti come una certa AMD R9 290X che succhia 300W a scheda singola, giusto per farti notare quanto interesse c'è da questo punto di vista.
Nel GPU computing Nvidia con Tesla con un chippone da 7 miliardi di transistors sta vendendo e Intel con Xeon Phi che dal punto di vista del consumo non mi sembra vi siano tante accortezze.
Mercato PC senza Windows ? SteamOS ti dice qualcosa ? Windows = Games.
Secondo te un azienda investe risorse immani su un chip "da server" per produrre un dispositivo su cui far girare solo SteamOS ? :rolleyes:
Considera che TUTTE le console uscite sino ad ora sul mercato sono basate su cpu che il produttore aveva "già pronte", ovvero "customizzate" ma non progettate da zero.
Persino il Cell di PS3 con le sue SPU deriva da precedenti progetti di ricerca di IBM ed anche li le cpu "generiche" erano dei core PowerPC derivati da design per il settore embedded.
Sui server quali componenti non avrebbe scusa ? Se è per questo per ora non esistono ARM ad alte performance quindi è logico che non esistano nemmeno piattaforme che lo supportino.
Gli ARM a64bit ad alte prestazioni arriveranno, è inevitabile, ma non è una cosa così "rapida" visto che non conta la cpu ma il sistema completo d il parco software.
Premesso che tali sistemi "ad alte prestazioni" non potranno attaccare direttamente il settore desktop e notebook (il grosso dei clienti di tale settore da per scontato il requisito di retrocompatibilità con software x86), il punto d'attacco al mercato non può essere che quello dei server di fascia alta (quella "bassa" è già coperta dagli ARM per applicazioni embedded e dai SoC per smartphone/tablet).
Devi avere S.O. e software già pronto e ben testato, devi avere sistemi con autodiagnostica, hardware con availability 99.999% garantita ecc. ecc.
Persino il software deve dati alla mano offrire prestazioni migliori e non basta promettere che "poi migliorerà con la prossima release del compilatore".
Se hai un processore più potente ma le ottimizzazioni automatiche del compilatore (o del sistema JIT) non sono ancora all'altezza o la concorrenza seppur con cpu meno performanti compensa la cosa con maggiori prestazioni di I/O verso le interfacce di rete ed i dischi, non riuscirai a trovare acquirenti.
Per questo preparare il "pacchetto completo" non è uno scherzo.
Tieni presente che pure Intel per "sfondare in alto" con Itanium dovette fare un accordo ferreo con HP (pure troppo, è il motivo principale per cui Intel è di fatto "obbligata" a continuare a produrre gli Itanium) perchè altrimenti l'Itanium non lo avrebbe preso nessuno.
Questo perchè HP aveva già la reputazione la credibilità necessaria presso i potenziali clienti mentre Intel era quella che aveva floppato due volte (con iAPX32 e con i860).
iAPX32 era stato un flop di dimensioni epiche (si fermò allo stadio di prototipo)
e poi anni dopo il primo flop, Intel aveva provato a "far da se" con la cpu RISC i860 (cpu 80860 da non confondere con il chipset 860 per cpu x86) ma in pratica fu ignorata da tutti i pezzi grossi (avevano già investito forte su loro cpu che erano più o meno prestanti come i860 e cambiare gli sarebbe costato troppo).
dobermann77
18-12-2013, 06:54
Gli ARM a64bit ad alte prestazioni arriveranno, è inevitabile
E' comunque bene evidenziare che siamo MOLTO piu' vicini ad avere gli Intel a bassissimi consumi che gli ARM ad alte prestazioni.
Questo per fare ordine su chi sta invadendo il mercato di chi.
PaulGuru
18-12-2013, 10:21
Secondo te un azienda investe risorse immani su un chip "da server" per produrre un dispositivo su cui far girare solo SteamOS ? :rolleyes: Perchè Windows secondo te gira sui servers ?
Quando parli di Windows in automatico ti riferisci al mondo desktop, Win Server non è così diffuso e l'open source è in netto avanzamento.
Considera che TUTTE le console uscite sino ad ora sul mercato sono basate su cpu che il produttore aveva "già pronte", ovvero "customizzate" ma non progettate da zero.Quindi ?
Non progetteranno mai da zero un nuovo prodotto e non vedrò mai un ARM ad alte prestazioni ?
Scusa ma non è la stessa cosa ?
Gli ARM a64bit ad alte prestazioni arriveranno, è inevitabile, ma non è una cosa così "rapida" visto che non conta la cpu ma il sistema completo d il parco software.Sbaglio o Apple A7 è già a 64bit così come lo sono tutti i SoC basati su ARM A54 e A57 ?
Premesso che tali sistemi "ad alte prestazioni" non potranno attaccare direttamente il settore desktop e notebook, il punto d'attacco al mercato non può essere che quello dei server di fascia alta Quindi ? Rimarranno nelle fasce basse ?
Devi avere S.O. e software già pronto e ben testato, devi avere sistemi con autodiagnostica, hardware con availability 99.999% garantita ecc. ecc.
Persino il software deve dati alla mano offrire prestazioni migliori e non basta promettere che "poi migliorerà con la prossima release del compilatore".
Se hai un processore più potente ma le ottimizzazioni automatiche del compilatore (o del sistema JIT) non sono ancora all'altezza o la concorrenza seppur con cpu meno performanti compensa la cosa con maggiori prestazioni di I/O verso le interfacce di rete ed i dischi, non riuscirai a trovare acquirenti.
Per questo preparare il "pacchetto completo" non è uno scherzo.
Scusa eh ma l'OS o meglio il kernel c'è già e si chiama Linux ( Fedora 20 ha già il supporto ufficiale ARM al pari degli x86 ), su servers adesso usano già open source nella stragrande totalità dei casi ed è in crescita rispetto a Win Server mentre per il resto sbaglio o esiste Android che oramai è diffusissimo ed è la priorità più importante della maggior parte delle SH attuali e le applicazioni di conseguenza sono sempre di più ?
Android che altro non è che un OS basato appunto su Linux e spinto da Google.
Per l'hardware i SoC dovrebbero integrare tutto, non dovrebbero avere altro HW di supporto ed avendo molti distributori diversi per ogni SoC immesso nel mercato, il proprio produttore è anche liberissimo di lasciare il proprio software di supporto.
CrapaDiLegno
18-12-2013, 17:18
Rispondo per l'ultima volta perché mi sembra una causa persa...
Perchè Windows secondo te gira sui servers ?
Quando parli di Windows in automatico ti riferisci al mondo desktop, Win Server non è così diffuso e l'open source è in netto avanzamento.
Dipende da che server stai considerando. Sui server di media dimensione Windows esiste. Sui mega server, no. E questo fa la differenza se vuoi creare un sistema completamente nuovo. Vai a scontrarti con i big del settore come i Power e tutto quello che viene appresso di IBM. Ecco quindi che si inzia da una nicchia del mercato, quella più nuova, in espansione ed esposta (nel senso che non è facilmente copribile da Intel con quello che ha attualmente a disposizione).
Quindi ?
Non progetteranno mai da zero un nuovo prodotto e non vedrò mai un ARM ad alte prestazioni ?
Scusa ma non è la stessa cosa ?
Ti è stato detto che non si fa nulla da zero per il semplice motivo che costa tanto. Secondo te quanto è l'investimento per creare un processore ARM da 4 miliardi di transistor? Quanti ne devi vedendere per ammortizzare il costo? Che mercato hai davanti (in termini di numeri di vendita)?
Sbaglio o Apple A7 è già a 64bit così come lo sono tutti i SoC basati su ARM A54 e A57 ?
Ma 64 bit non è uguale a potenza spropositata! E' solo il principio per permetterti di gesitre più di 4GB di RAM in modo efficiente, ma non vuol dire che con 64 bit hai un processore super potente. Non cadere nel marketing Apple. Gli ARM 53/57 ancora non sono usciti. E' una tecnologia pensata per i 20nm, quindi finché non ci sarà qualcuno in grado di fabbricarli rimarranno sulla carta. E comunque questi nuovi processori a 64 bit sono destinati ai serve a basso consumo. Non faranno concorrenza né agli Xeon da 15 core né ai Power di IBM da 16 thread per core.
Quindi ? Rimarranno nelle fasce basse ?
Sì se le fasce basse sono quelle con i maggiori numeri di vendita e consentono guadagni investendo relativamente poco.
E permettendosi di allargare piano piano il mercato senza rischiare il fallimento per aver fatto il passo più lungo della gamba. Secondo te è meglio investire mille per guadagnare 1500 qualche mese dopo o investire un milione con il rischio che non andrai mai in pari?
Scusa eh ma l'OS o meglio il kernel c'è già e si chiama Linux ( Fedora 20 ha già il supporto ufficiale ARM al pari degli x86 ), su servers adesso usano già open source nella stragrande totalità dei casi ed è in crescita rispetto a Win Server mentre per il resto sbaglio o esiste Android che oramai è diffusissimo ed è la priorità più importante della maggior parte delle SH attuali e le applicazioni di conseguenza sono sempre di più ?
Android che altro non è che un OS basato appunto su Linux e spinto da Google.
Quindi faccio un processore da 4 miliardi di transistor e ci metto su Android? Oppure lo uso "solo" con Linux per i grandi sitemi di calcolo? Mi sembra che ti sei perso gli ultimi 20 anni di storia informatica per non aver visto che fine hanno fatto tutti coloro che avevano processori buoni solo per il mercato server. L'unica che ancora tiene è IBM, anche se è chiaro che ultimamente anche lei fa fatica a continuare a sviluppare quei mostri e a venderne a sufficienza per portare a casa i soldi necessari per anfare in pari. E considera che IBM non ti vende solo il silicio, ma con esso tutta l'assistenza e spesso anche una serie di vincoli.
Chi non può fare questo (e per farlo occorre una valanga di soldi oltre che una tecnologia già bella pronta e rodata) non può sperare di fare alcuna concorrenza in un mercato che "non perdona".
Per l'hardware i SoC dovrebbero integrare tutto, non dovrebbero avere altro HW di supporto ed avendo molti distributori diversi per ogni SoC immesso nel mercato, il proprio produttore è anche liberissimo di lasciare il proprio software di supporto.
Un sistema fatto da centinaia o migliaia di CPU separate non si gestisce con "tutto nel SoC". Servono anche una serie di "nodi" fatti per comunicare con il resto del sistema e bilanciare carichi e risorse. O pensi che basta mettere in un frigorifero mille schede madri e collegarle ad uno switch di rete per fare un server HPC?
Fareil proprio SW vuol dire investire alemno tanto quanto s investe nel silicio. E per anni. Oltre a IBM, MS, HP, Oracle e qualche altra azienda, non vedo come tu possa pensare che se anche ti regalo i processori più super potenterrimi del pianeta tu possa pensare di fare del SW di supporto al pari di quello che è stato creato in 50 anni in un anno. O anche 3.
Samsung per quanto sia un colosso e possa fare HW decente a prezzo stracciato è ben lontana da poter sviluppare un qualcosa di paragonabile a quello che offrono IBM o HP o Oracle. Se comincia oggi forse tra 10 anni qualcuno potrebbe pensare di prendere in considerazione qualche suo prodotto. Nel frattempo però le risorse investite senza ritorno saranno enormi.
Non è che non si potrà mai fare o non è possibile. Questo tipo di investimenti richiede tempo e a guardare il passato, richiede anche una certa dose di "furbizia". E' storicamente dimostrato che non è il prodotto migliore quello che vince. Accordi e capacità di lock-in sono parte delle equazioni. E non sono termini marginali.
Oggi ARM ha tutta la capacità di mangiare completamente la base del mercato x86. E lo può fare senza che nessuno degli attori coinvolti nel processo rischi il fallimento. Semplicemente il prodotto è migliore di quello di Intel e Intel in questo mercato non si avvantaggia della retrocompatibilità. Ecco perché i numeri di vendita di ARM rispetto a quelli di Intel sono di 3 ordini di grandezza differenti.
Il prossimo ostacolo non è di tipo prestazionale. Ma è proprio quello di fare braccia nel mondo consumer che è x86 (ma diciamo pure Windows) dipendente per il SW. Basta vedere che diffusione ha Linux sulla stessa architettura. Se non garantisci la compatibilità con Windows sei out già in partenza.
Ecco allora che il mercato sta da tempo cercando di liberarsi della dipendenza da Intel usando Virtual Machine, JIT e Framework in Bytecode, sistemi cloud e thin client che permettono l'esecuzione su qualcosa di diverso da x86. Vedi proprio Android che tutti criticano perché "è lento" "lagga" "consuma più risorse"... certo tuttto vero, ma permette di girare su qualsiasi SoC (ARM, X86 e MIPS). Quando il tutto maturerà ancora di più, la questione "prestazioni" sarà secondaria perché si raggiungerà quella ben più critica della compatibilità.
Più ARM cresce, meno cresce Intel. Più ARM prendono piede più risorse sono spendibili per migliorare l'ambiente ARM (sia SW che HW) a scapito di Intel. Più i produttori di chip ARM prosperano, più possibiltà hanno di investire (piano piano) in altri mercati e ridurre ulteriormente il dominio di Intel.
Intel oggi cerca di entrare in un mercato che prima non ha mai guardato perché ha un processo produttivo all'avanguardia che compensa (in parte) gli svantaggi della propria architettura. Come detto tante volte, se perde quel vantaggio (e senza risorse garantite dalla vendita in grandissime quantità non può di certo mantenerlo) Intel non potrà sperare di "asfaltare" nessuno come fece negli anni passati.
Intel non è vicina per niente a creare qualcosa che consumi poco. Chiediamoci perché dal 2010, quando ha deciso di portare Atom nel mondo mobile, non è riuscita a creare qualcosa che consumasse 2 o 4W (complessivi come un SoC ARM).
Dato che il mondo mobile non ricerca l'uso di processori con IPC pari a un i7, fare un processore con i consumi, le prestazioni e le dimensioni di un ARM sarebbe già stato un passo avanti per cercare di ridurne l'espansione.
Invece Intel può arrivare fino ad un certo punto. Più sotto non riece ad andare (anche perché a furia di rimuovere transistor per consumare meno le prestazioni ne risentono eccome). Tutti i confronti fatti oggi da Intel sono fatti o con sistemi che consumano almeno 3 volte tanto, o paragonati ad architetture ARM vetuste. Nel 2010 si presentò con un confronto contro un A8 monocore (che consumava 1/10 ed era grande pure 1/10 rispetto alla sua creatura e Intel gongolava perché andava più del doppio in int e una infinità in più in FP). Oggi si presenta con un confronto contro un A9 (del 2010), quando gli A15 sono fuori da più di un anno e gli A57 sono alle porte.
Credete pure nei numeri che volete, ma la realtà è che ARM ha tutto il potenziale di miglioramento possibile, dovuto anche agli investimenti di molti attori, mentre Intel continua a deludere le aspettative. I suoi Bay Trail a 22nm mica si scontreranno con gli A9 a 40nm, ma con gli A57 a 20nm. Sono quelli i paragoni che Intel dovrebbe proprorre, non dimostrare che nel 2014 con 2 PP di vantaggio rispetto ai 40nm del 2010 ancora non è arrivata ad avere gli stessi livelli di prestazioni/consumi. I grafici precedenti quello mostrano, dato che si confronta un 20W+bridge andando 4 volte di più di un SoC che con 5W alimenta anche 4GB di RAM in un mercato dove il numero dei core non è un problema, i consumi sì.
D'altronde il mercato è chiaro: in 4 anni Intel ha venduto una manciata di Atom (sopratttuo nel mercato server a basso consumo) vs qualche miliardo di ARM nel mercato mobile. Ora che ARM arriva a lambire il mercato server a basso consumo, ad Intel non basta fare qualcosa che appare migliore di un SoC ARM 4 anni più vecchio. Se perde anche quel mercato gli Atom saranno buoni solo come costose decorazioni da appendere agli alberi di Natale.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.