View Full Version : 64 processori Xeon in 10 unità rack: nuovo record di SeaMicro
Redazione di Hardware Upg
02-02-2012, 08:31
Link alla notizia: http://www.businessmagazine.it/news/64-processori-xeon-in-10-unita-rack-nuovo-record-di-seamicro_40534.html
Nuova evoluzione per il server rack ad alta densità di SeaMicro: al posto dei processori Intel Atom troviamo ora una particolare versione di processore Xeon. 64 sistemi indipendenti integrati in uno chassis rack da 10 unità d'ingombro
Click sul link per visualizzare la notizia.
"64 processori Xeon in 10 unità rack" è poco di più di quello che si può fare con dei comuni twin (usando 10U), che possono montare processori molto più preformanti e sicuramente in caso di singolo guasto garantiscono maggiore affidabilità.
Non so, come soluzione non mi convince molto.
emanuele83
02-02-2012, 08:57
a parte la soluzione xenon, ma un affare con 512 atom, a cosa può servire? parlo da ignorante in materia, ma conosco bene le limitazioni degli atom.
SpyroTSK
02-02-2012, 09:37
emanuale83:
se devi fare un "serverino" per virtualizzazione con vmware quella è una soluzione "economica" e che consuma poco.
512 cpu dualcore = 3,2ghz * 512 = 1638,4 ghz
:D
SpyroTSK
02-02-2012, 09:40
"64 processori Xeon in 10 unità rack" è poco di più di quello che si può fare con dei comuni twin (usando 10U), che possono montare processori molto più preformanti e sicuramente in caso di singolo guasto garantiscono maggiore affidabilità.
Non so, come soluzione non mi convince molto.
sicuramente non è molto, ma se li pensi stesi in 2000-3000mq capisci che c'è un risparmio di spazio :)
Eraser|85
02-02-2012, 09:42
a parte la soluzione xenon, ma un affare con 512 atom, a cosa può servire? parlo da ignorante in materia, ma conosco bene le limitazioni degli atom.
L'architettura ATOM presenta una serie di svantaggi:
- Esecuzione in-order (anche se la pipeline è relativamente corta, c'è sicuramente un bel calo di prestazioni)
- Unità FP poco performanti (31 cicli per una divisione float contro i 17 delle architetture Core)
Quindi se si usano tanti di questi processori in scenari dove bisogna processare tanti dati in streaming (principalmente integer o somme/moltiplicazioni float, magari SIMD), l'idea non è poi così malvagia, si ha una buona efficienza energetica e anche un costo non esorbitante..
Eraser|85
02-02-2012, 09:42
emanuale83:
se devi fare un "serverino" per virtualizzazione con vmware quella è una soluzione "economica" e che consuma poco.
512 cpu dualcore = 3,2ghz * 512 = 1638,4 ghz
:D
Magari funzionasse così.. peccato che è totalmente sbagliata la considerazione
sicuramente non è molto, ma se li pensi stesi in 2000-3000mq capisci che c'è un risparmio di spazio :)
Sono abituato a sale server da una decina di rack per uso HPC, molto probabilmente in una webfarm da 2000m^2 può avere un suo perché :)
a parte la soluzione xenon, ma un affare con 512 atom, a cosa può servire? parlo da ignorante in materia, ma conosco bene le limitazioni degli atom.
avranno voluto risparmiare in raffreddamento e consumi :D
leddlazarus
02-02-2012, 12:22
Magari funzionasse così.. peccato che è totalmente sbagliata la considerazione
invece vmware esx ragiona in quel modo...
visto che i server sono virtuali lui vede una potenza elaborativa virtuale che è la somma delle freq dei singoli core.
poi non so come il sistema lo gestisca, ma nell'interfaccia utente è cosi'
coschizza
02-02-2012, 12:22
emanuale83:
se devi fare un "serverino" per virtualizzazione con vmware quella è una soluzione "economica" e che consuma poco.
512 cpu dualcore = 3,2ghz * 512 = 1638,4 ghz
:D
fare virtualizzazione su un hardware di quel tipo è quasi impossibile, un batterie di 512 cpu arm possono essere ottime per sistemi di web sul cloud ma la virtualizzazione è assolutamente sclusia sia perche le cpu non la supportano via hardware sia perche dovresti montare 4 core su ogni server per avere prestazioni simili o persino inferiori di un core standard di una cpu xeon o opteron.
coschizza
02-02-2012, 12:37
invece vmware esx ragiona in quel modo...
visto che i server sono virtuali lui vede una potenza elaborativa virtuale che è la somma delle freq dei singoli core.
poi non so come il sistema lo gestisca, ma nell'interfaccia utente è cosi'
questo non è esattametne vero, non puoi aggiungere cpu a una macchina virtuale a caso devi vedere quanti socket hai quanti core per socket ecc, poi dei vedere quali cpu hanno la ram collegata e quali la condividono tramite un bus esterno perche non puoi mettere su una VM delle cpu che non condividono gli stessi canali di memoria andresti a ridurre drasticamente le performance dovendo abilitare funzioni come NUMA che fanno degradare pesantemente le performance .
Se per esempio hai un server con 4 socket e ognuno con una cpu 4 core hai un totale di 16 core, ma qusto non significa che puoi tranquillamente creare macchine virtuali con piu di 4 core perche tranne configurzioni particolari avresti un degrado delle performance. Noi in azienda in casi simili abbiamo migrado le cpu da 4 a 8 core per ovviare a questo.
Tasslehoff
02-02-2012, 13:54
Vedo che molti citano i vantaggi energetici di una soluzione di questo tipo, faccio presente che l'assorbimento energetico è una variabile praticamente trascurabile se non del tutto inutile, viene considerata unicamente per dimensionare correttamente gli UPS a cui le macchine vengono connesse.
Non è un caso che nelle offerte delle principali farm i parametri energetici sono variabili assolutamente assenti nella formulazione delle offerte ai clienti.
Che tu abbia un server che assorbe 5kWh o 100Wh non fa alcuna differenza (semplicemente viene connesso ad una linea di UPS piuttosto che ad un'altra), la differenza la fanno le U occupate dalla macchina (che in questo caso non sono affatto poche), il traffico generato, la banda disponibile e i servizi accessori.
Riguardo al prodotto in se a me non sembra hardware poi così fenomenale, con un normalissimo sistema Bladecenter IBM da 7U si arriva ad avere 56 socket Intel Xeon (per un totale di 560 core), oppure un mix di sistemi Intel based e di sistemi Power7, senza contare le features accessorie che permettono ai blade di fondersi tramite tecnologia IBM X5.
A prescindere dall'hardware e dalla componentistica poi sarei curioso di conoscere il kamikaze che va ad investire su una architettura proprietaria proposta da una società composta da 75 persone che sta dall'altra parte del pianeta e che dubito possa competere con un produttore come IBM, con la sua rete di assistenza, ricambi e supporto.
Insomma la questione è sempre la stessa: un server è molto più di qualche banco di ram, cpu o disco messo insieme "alla buona"...
Squall 94
02-02-2012, 14:23
Posso capire il tutto per risparmiare energia nell'ottica cloud ma non sarebbe opportuno mettere più Ram?
Creare un server più efficiente sfruttando il calcolo parallelo è il concetto su cui è nato il cloud, il passo avanti adesso è espandere la memoria che ogni processore può gestire, credo che la Micron abbia centrato il tutto.
Non ho controllato la compatibilità del socket ma questo http://www.techpowerup.com/154760/Micron-Introduces-New-64-GB-DDR3-LRDIMM-Module.html potrebbe moltiplicare di non poco il guadagno prestazionale.
Se un Atom non dovesse bastare ci sono ben altre scelte, come Xenon o Opteron, bisogna tenere in considerazione quale sistema dovrà reggere, risparmiare mettendo così tanti Atom secondo me è peggio di mettere meno processori ma con più core, tipo uno Xenon.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.