PDA

View Full Version : AMD Opteron A1100: soluzioni per il datacenter con core ARM


Redazione di Hardware Upg
14-01-2016, 14:01
Link alla notizia: http://www.hwupgrade.it/news/cpu/amd-opteron-a1100-soluzioni-per-il-datacenter-con-core-arm_60297.html

AMD estende la propria gamma di soluzioni per sistemi server presentando 3 versioni di processore della famiglia Opteron A1100, basate su architettura ARM che integrano sino a un massimo di 8 core

Click sul link per visualizzare la notizia.

marchigiano
14-01-2016, 14:19
32w consumicchiano questi a57 :eek:

ecco perchè lo snap810 prendeva fuoco...

sarebbe da vedere un confronto con la versione server di bay trail

AceGranger
14-01-2016, 14:29
32w consumicchiano questi a57 :eek:

ecco perchè lo snap810 prendeva fuoco...

sarebbe da vedere un confronto con la versione server di bay trail


test preliminare:

http://images.anandtech.com/graphs/graph8776/70321.png



bha, contando che quest'anno usciranno gli Xeon-D ( Atom Airmont ), non credo che abbiano molte speranze.

coschizza
14-01-2016, 14:33
32w consumicchiano questi a57 :eek:

ecco perchè lo snap810 prendeva fuoco...

sarebbe da vedere un confronto con la versione server di bay trail

il modello top intel Atom™ C2758 va piu veloce e ha 20w di TDP e si basa sulla tecnologia 22nm quindi intel ha comunque un ampio margine di miglioramento sui modelli in prossima uscita 14nm

CrapaDiLegno
14-01-2016, 16:13
Si ma ragazzi, il confronto con le CPU da server non si fa così! Bisogna farlo secondo il lavoro per cui il server è pensato.
Vi sono test in cui vecchi ARM danno la paga agli Xeon, ed è per questo che esistono le versioni server di ARM. Non è che si investe qualche centinaio di milioni di dollari (o miliardino per il K12) per fare un nuovo processore sapendo che non ha speranza.

Nel vostro router di casa c'è un ARM non un Atom di qualche specie. Provate a pensare il perché.

Inoltre nei NAS di livello basso gli ARM stanno prendendo piede dove prima c'era solo x86, mentre di Atom non se ne vedono proprio. Si passa direttamente ai Celeron là dove comincia a servire potenza per elaborare i flussi video o agli Xeon là dove gli slot e le funzioni cominciano ad essere pesanti.
'sti miracolosi Atom che ogni generazione devono essere meglio del meglio ancora non li ha cagati nessuno. E hanno cominciato a gareggiare contro gli ARM nel 2008, subito dopo il flop del mercato dei netbook. E per ora, a parte aver succhiato parecchie risorse a mamma Intel la loro adozione non mi sembra proprio abbia fatto questi grandi proseliti (la maggioranza dei quali è stata pagata per usarli, o per meglio dire, gli sono stati venduti sottocosto per riuscire ad essere competitivi con gli ARM che con un PP più vecchio, meno costoso, meno silicio e meno W fanno lo stesso lavoro).

cdimauro
14-01-2016, 18:20
Si ma ragazzi, il confronto con le CPU da server non si fa così! Bisogna farlo secondo il lavoro per cui il server è pensato.
Vi sono test in cui vecchi ARM danno la paga agli Xeon, ed è per questo che esistono le versioni server di ARM. Non è che si investe qualche centinaio di milioni di dollari (o miliardino per il K12) per fare un nuovo processore sapendo che non ha speranza.
Credo che Anandtech, di cui AceGranger ha riportato un test, sappia come effettuare i confronti per questi chip.
Nel vostro router di casa c'è un ARM non un Atom di qualche specie. Provate a pensare il perché.

Inoltre nei NAS di livello basso gli ARM stanno prendendo piede dove prima c'era solo x86, mentre di Atom non se ne vedono proprio. Si passa direttamente ai Celeron là dove comincia a servire potenza per elaborare i flussi video o agli Xeon là dove gli slot e le funzioni cominciano ad essere pesanti.
'sti miracolosi Atom che ogni generazione devono essere meglio del meglio ancora non li ha cagati nessuno. E hanno cominciato a gareggiare contro gli ARM nel 2008, subito dopo il flop del mercato dei netbook. E per ora, a parte aver succhiato parecchie risorse a mamma Intel la loro adozione non mi sembra proprio abbia fatto questi grandi proseliti (la maggioranza dei quali è stata pagata per usarli, o per meglio dire, gli sono stati venduti sottocosto per riuscire ad essere competitivi con gli ARM che con un PP più vecchio, meno costoso, meno silicio e meno W fanno lo stesso lavoro).
Questo riguarda i tablet e gli smartphone. Nel mondo server o embedded la situazione è ben diversa, e gli Atom sono ben presenti, anche in NAS e router.

Non è certo soltanto per gli Xeon basati su core non-Atom che la divisione data server di Intel sta andando così bene.

Un ultimo esempio di come gli Atom stiano venendo adottati un po' ovunque è questo qui (https://www.tim.it/prodotti/tv-e-smart-living/decoder-timvision#section2).

Mentre, al contrario, gli ARM che avrebbero dovuto mangiarsi una bella fetta del mercato server di Intel, non mi sembra che abbiano avuto tutto questo seguito.

massimo79m
14-01-2016, 18:23
Vi sono test in cui vecchi ARM danno la paga agli Xeon


In che ambito? come Gflops/W? perche' come potenza di elaborazione gli xeon schiacciano qualsiasi ARM.


, ed è per questo che esistono le versioni server di ARM. Non è che si investe qualche centinaio di milioni di dollari (o miliardino per il K12) per fare un nuovo processore sapendo che non ha speranza.


stiamo parlando di amd :D

tuttodigitale
14-01-2016, 19:05
Complessivamente ARM A57 è inferiore, e di molto, ma non è detto che su carichi adatti non sia efficientissimo (ma non ci metto la mano sul fuoco). L'osservazione di capradilegno non è errata (capita anche questo :asd: ). Un Beema sarebbe stato molto più competitivo in specint, è un test che racconta solo una parte della storia (pensa che ci sono riferimenti nella codifica h264). I 12 MB di cache (credo che la l3 sia di tipo victim, viste le generose dimensioni della l2) non credo che siano li per bellezza.

Certo che K12, sarà un'architettura completamente diversa e specificamente progettata.
Ad essere onesti, questo a1100, mi sembra più developer kit di k12, tanto per far girare software, in modalità nativa e nulla più.

cdimauro
14-01-2016, 19:10
Beh, nessuno nega che ci siano carichi di lavoro dove un'architettura ARM renda di più di una x86 (e viceversa, ovviamente).

Sono ISA (e microarchitetture) completamente diverse, per cui c'è codice che si adatta meglio a una oppure all'altra.

tuttodigitale
14-01-2016, 19:27
'sti miracolosi Atom che ogni generazione devono essere meglio del meglio ancora non li ha cagati nessuno. E hanno cominciato a gareggiare contro gli ARM nel 2008, subito dopo il flop del mercato dei netbook. E per ora, a parte aver succhiato parecchie risorse a mamma Intel la loro adozione non mi sembra proprio abbia fatto questi grandi proseliti (la maggioranza dei quali è stata pagata per usarli, o per meglio dire, gli sono stati venduti sottocosto per riuscire ad essere competitivi con gli ARM che con un PP più vecchio, meno costoso, meno silicio e meno W fanno lo stesso lavoro).

Non me ne volere, ma credo che ci sia molta ignoranza nel tuo commento.
Il mercato netbook, è stato tutt'altro che un flop. Costi minimi e buon ritorno economico. Ci hanno guadagnato, e pertanto il flop è solo nella tua fantasia (nvidia ha fatto addirittura un chipset dedicato al flop...:rolleyes: )

Allora io sul costo non ti saprei dirti molto, ma sono convinto che chi ha le FAB ha tutto l'interesse di saturare la capacità produttiva, perchè (presumo, sono un ignorante anch'io) il costo, che poi è per lo più dovuto alle attività di ricerca, messa a punto e non nel prodotto in sè, viene partizionato sul numero di prodotti venduti.

Comunque, giusto per ritornare con i piedi per terra, ATOM a livello di CPU si mangiava per efficienza i prodotti ARM-based, con un processo produttivo nominalmente inferiore (vedi 32nm vs 28nm), e anche il confronto con i 22vs 20nm (ma reputo i finfet di gran lunga migliori) la storia non è cambiata.
Mi sa che tu confondi le prestazioni della gpu, compromesse da un livello di integrazione non certo esaltante.

Nessun miliardo è stato speso per la progettazione di ZEN e k12, ma 40-50 milioni di euro. Quello che costa è mettere il progetto sul silicio, costi dell'operazione stimato in circa 500 milioni di euro (10 anni fa si spendevano circa 50)

cdimauro
14-01-2016, 19:55
Infatti. E' ben noto che il tallone d'Achille dei processori di Intel è stato rappresentato dalle sue GPU. Soltanto con le ultime incarnazioni abbiamo assistito a prestazioni di tutto rispetto, e non è un caso che proprio la GPU sia la componente che abbia subito una notevole espansione.