View Full Version : SeaMicro: 512 CPU Intel Atom in un singolo server
Redazione di Hardware Upg
15-06-2010, 16:15
Link all'Articolo: http://www.businessmagazine.it/articoli/2469/seamicro-512-cpu-intel-atom-in-un-singolo-server_index.html
Un approccio originale e particolare quello di SeaMicro, che con il sistema SM10000 vuole sostituire installazioni di server non virtualizzati dall'elevato consumo con una batteria di processori Atom, contenendo il tutto in un rack da 10 unità
Click sul link per visualizzare l'articolo.
Quindi alla fine non è paragonabile ad un supercomputer "tradizionale" però basato su Atom..
Tidus.hw
15-06-2010, 17:01
ho letto tutto l'articolo solo per vedere qanto consumava una singola scheda madre con 8 cpu, non e' stato dichiarato? e come gestisce la ridondanza? le cpu mi sembrano saldate, se se ne rompe una si cambia tutta la mobo?
Ciao
intermut82
15-06-2010, 17:14
be potezna da un atom ma i costi da 139.000 $ mi ssebrano un po elevati...
BodyKnight
15-06-2010, 17:16
Non capisco perchè sprecare risorse e flessibilità su processori che dal punto di vista dell'efficienza energetica sono tutto tranne che efficienti, e impantanarsi su 2GB di memoria per scheda\server e chissà che schifo di supporto raid e chissà che supporto per altri OS, ecc...; invece di usare un server cazzuto e farci girare millanta VM.
harlock10
15-06-2010, 17:22
un consumo ridotto per 512 non so quanto possa essere ridotto , poi bisogna aggiungere il consumo di tutti i controller proprietarie delle ram ecc ecc.
Bisognerebbe vedere quanti atom ci volgiono per fare uno xeon , 20 - 30 - 50 chi lo sa.
Superboy
15-06-2010, 17:37
@BodyKnight
Scusa dove hai letto che Atom non sono efficienti?
@harlock10
Leggi meglio l'articolo, non è quello il targhet. Lo scopo è rimpiazzare tanti server single task sottoutilizzati.
è un'ottima soluzione! in quanto rinnova il concetto di cluster...
di fatto la parte piu' importante di tutto questo server è il software...
i 2gb non sono una limitazione in quanto è raro che una singola connessione utilizzi piu' di 2 gb....al contrario non si fa menzione dell'hot swap delle schede cpu e delle connessioni in fibra ormai indispensabili per server di queste dimensioni....
per quanto riguarda buttare le VM dalla finestra...sono pienamente d'accordo...
la virtualizzazione oggi giorno pone diversi problemi di gestione e sopratutto di bilancio delle prestazioni....
d'altronde anche intel ha elaborato una cpu con 48 atom core al suo intero....
devil_mcry
15-06-2010, 17:49
un consumo ridotto per 512 non so quanto possa essere ridotto , poi bisogna aggiungere il consumo di tutti i controller proprietarie delle ram ecc ecc.
Bisognerebbe vedere quanti atom ci volgiono per fare uno xeon , 20 - 30 - 50 chi lo sa.
beh quando una di queste cpu in media consuma come 2-5w in full e una normale ne fa 100-120 la diff si sente, vero che 1 atom nn ha prestazioni di una cpu normale, ma nella massa l'ipc sale
sarebbe stato curioso sapere quanti gigaflops genera quella macchina
devil_mcry
15-06-2010, 17:52
riguardo ai consumi ho trovato questo
http://images.anandtech.com/reviews/IT/SeaMicro/SM10000/powersavings2.jpg
inoltre la recensione è sbagliata le cpu usate sono degli atom z530
The secret begins at the motherboard level. It all starts with a single core Intel Atom Z530 (1.6GHz, Silverthorne)
ragazzocattivo
15-06-2010, 17:53
Link all'Articolo: http://www.businessmagazine.it/articoli/2469/seamicro-512-cpu-intel-atom-in-un-singolo-server_index.html
Un approccio originale e particolare quello di SeaMicro, che con il sistema SM10000 vuole sostituire installazioni di server non virtualizzati dall'elevato consumo con una batteria di processori Atom, contenendo il tutto in un rack da 10 unità
Click sul link per visualizzare l'articolo.
Eppoi dicono che con l''atom non ce la fai a giocare a Crysis
:D :p
riguardo ai consumi ho trovato questo
http://images.anandtech.com/reviews/IT/SeaMicro/SM10000/powersavings2.jpg
Non ho compreso la seconda riga, ciò che fa la differenza...
be potezna da un atom ma i costi da 139.000 $ mi ssebrano un po elevati...
Segmento enterprise.
140k€ sono caramelle per un'azienda di media dimensione.
è un'ottima soluzione! in quanto rinnova il concetto di cluster...
di fatto la parte piu' importante di tutto questo server è il software...
i 2gb non sono una limitazione in quanto è raro che una singola connessione utilizzi piu' di 2 gb....al contrario non si fa menzione dell'hot swap delle schede cpu e delle connessioni in fibra ormai indispensabili per server di queste dimensioni....
per quanto riguarda buttare le VM dalla finestra...sono pienamente d'accordo...
la virtualizzazione oggi giorno pone diversi problemi di gestione e sopratutto di bilancio delle prestazioni....
d'altronde anche intel ha elaborato una cpu con 48 atom core al suo intero....
Mha, non saprei... da un lato la soluzione può essere interessante (sia da un punto di vista tecnico che economico), ma dall'altro sono scettico perchè:
- non supporta memoria ECC
- non supporta nativamente RAID 1/5/6/10 (anche se potrà essere connesso con iSCSI a una SAN esterna)
- per quanto consumino poco, l'efficienza energetica (inteso come rapporto consumo/prestazioni) delle CPU Atom può anche essere più bassa di quella di una CPU normale. Vedere qui per maggiori informazioni: http://www.techreport.com/articles.x/15204/9
- il sistema è legato alla vecchia piattaforma con Atom Silverthrone e non la vedo facilmente migrabile a Pine Trail (in quest'ultimo è integrata una GPU che in questo caso sarebbe totalmente inutile)
- i sistemi di virtualizzazione permettono già oggi di far collassare molte macchine logiche su pochi server fisici.
Diciamo che la vedo adatta a soluzioni veramente verticalizzate e, in quanto tali, di nicchia. Probabilmente la sua praticabilità, anche e soprattutto economica, dipende dal carico dei server cha va a sostituire: se questi fossero quasi sempre in idle, potrebbe esserci un risparmio consistente; in caso contrario credo che i margini siano molto più risicati. In questo senso, c'è da ammettere che SeaMicro ha evidenziato molto bene che i vantaggi più grossi ci sono quando si sostituiscono server prevalentemente sotto utilizzati.
Ciao. :)
Non ho compreso la seconda riga, ciò che fa la differenza...
dovrebbe significare
1000 r610 (2 xeon) contenuti in 40 rack (25 per rack) sono equivalenti a 40 seamicro (512 atom) contenuti in 10 rack (4 per rack)
2000xeon=20480atom -> xeon = 10,24 atom :)
hanno anche un occupazione spaziale minore
devil_mcry
15-06-2010, 23:09
mah mi sa che il futuro sarà in quel senso
poca potenza su singola unità, ma tante unità
in effetti se ci pensate, il cervello va tanto bene fatto cosi (1 neurone nn è intelligente di suo, ha solo una reazione pesata a uno stimolo) ma tanti neuroni in alcune persone le fanno intelligenti
Raghnar-The coWolf-
15-06-2010, 23:43
Non ho capito bene.
100k$/500 Atom = 200$ per Atom.
O_o o_O O_o o_O
Non ho capito bene.
100k$/500 Atom = 200$ per Atom.
O_o o_O O_o o_O
Devi aggiungerci anche il costo della piattaforma e quelli di sviluppo.
Raghnar-The coWolf-
16-06-2010, 00:10
I conti non mi tornano comunque.
Un atom del genere quanto costa? (esagerando) 100$? Sono 50k$ per i processori. E gli altri 100k dove li usano?
Stanno costruendo un server per cpu duty in cui i processori sono la metà della metà del costo? O_o
devil_mcry
16-06-2010, 00:17
I conti non mi tornano comunque.
Un atom del genere quanto costa? (esagerando) 100$? Sono 50k$ per i processori. E gli altri 100k dove li usano?
Stanno costruendo un server per cpu duty in cui i processori sono la metà della metà del costo? O_o
ma tu in un computer, ram, controller, case, alimentatori ecc ecc ecc non li paghi?
Ogni ASIC SeaMicro permette di gestire una coppia di processori: per ogni scheda finale troviamo quindi 8 processori Atom, 8 chip US15, 4 ASIC SeaMicro e due collegamenti PCI Express 16x, con la memoria dedicata a ciascun server che è montata nella parte posteriore delle schede.
1tb di ram, 64 gigalan, l'alimentazione, lo sviluppo di tutto non costano?
oltre al naturale rincaro per il lavoro svolto
Raghnar-The coWolf-
16-06-2010, 00:20
ma tu in un computer, ram, controller, case, alimentatori ecc ecc ecc non li paghi?
In un server per potenza cpu li pago quanto/o poco meno/o poco più delle cpu.
A me sembra solo abbiano fatto il conto di quanto potevano spremere.
devil_mcry
16-06-2010, 00:24
In un server per potenza cpu li pago quanto/o poco meno/o poco più delle cpu.
A me sembra solo abbiano fatto il conto di quanto potevano spremere.
quindi se loro pagano le cpu 100 dollari l'una, il server dovrebbero vendertelo a 51200 dollari giusto? il resto che hanno speso per l'hw di contorno te lo regalano? sopratutto la ram che costa cosi poco oggi giorno ...
anche se il server viene pagato in base alle prestazioni che offre, loro comunque non pagano solo le cpu che mettono dentro
Raghnar-The coWolf-
16-06-2010, 00:32
quindi se loro pagano le cpu 100 dollari l'una, il server dovrebbero vendertelo a 51200 dollari giusto?
Ma che c'entra.... -_-'
devil_mcry
16-06-2010, 00:39
Ma che c'entra.... -_-'
no centra, tu hai fatto quel ragionamento prima
I conti non mi tornano comunque.
Un atom del genere quanto costa? (esagerando) 100$? Sono 50k$ per i processori. E gli altri 100k dove li usano?
Stanno costruendo un server per cpu duty in cui i processori sono la metà della metà del costo? O_o
aggiungi il costo del resto del sistema vedi che la cifra finale secondo me nn è poi tanto + bassa
gia solo considera quanto costa la ram, 1gb di ram penso che meno di 10-15 dollari non lo pagano, e quindi già in ram partono altri 15mila dollari
aggiungici i 512 US15 che nn so quanto intel li faccia pagare, ma anche qui immagino un 30 dollari almeno l'uno se non di +
i 256 controller proprietari per far lavorare gli atom a coppie (se ho capito bene) che hanno sviluppato loro
e poi lo sviluppo delle schede ecc ecc
Narkotic_Pulse___
16-06-2010, 08:55
mah, il sw che girerà su questo server deve essere molto parallelizzato via sw, il target è quello di server single thread sottoutilizzati, ma il sw di gestione dei programmi deve parallelizzare bene il tutto per suddividerlo su 512 cpu..
mah, il sw che girerà su questo server deve essere molto parallelizzato via sw, il target è quello di server single thread sottoutilizzati, ma il sw di gestione dei programmi deve parallelizzare bene il tutto per suddividerlo su 512 cpu..
Ciao,
in realtà non credo che il target sia quello di "dividere" un singolo lavoro su 512 Atom, quanto piuttosto permettere di far girare centinaia di istanze del sistema operativo, ognuna con i propri servizi a bordo.
Insomma, è un po' lo stesso concetto delle virtual machine solo che, stavolta, invece di un hypervisor che astrae le CPU presenti, ogni scheda è un vero e proprio server autonomo.
Ciao. :)
masty_<3
16-06-2010, 11:42
Ciao,
in realtà non credo che il target sia quello di "dividere" un singolo lavoro su 512 Atom, quanto piuttosto permettere di far girare centinaia di istanze del sistema operativo, ognuna con i propri servizi a bordo.
Insomma, è un po' lo stesso concetto delle virtual machine solo che, stavolta, invece di un hypervisor che astrae le CPU presenti, ogni scheda è un vero e proprio server autonomo.
Ciao. :)
Beh e a me sembra anche una buona idea visto che le prestazioni delle vm non sono esattamente eccellenti, sta soluzione può andare e poi, visto il prezzo... Però dei dual potevano starci!
beh quando una di queste cpu in media consuma come 2-5w in full e una normale ne fa 100-120 la diff si sente, vero che 1 atom nn ha prestazioni di una cpu normale, ma nella massa l'ipc sale
sarebbe stato curioso sapere quanti gigaflops genera quella macchina
mette a disposizione un throughput di 1,28 terabit al secondo.
Preso dalla news di Tom's http://www.tomshw.it/cont/news/server-con-512-cpu-atom-pazzia-no-realta/25728/1.html
Beh e a me sembra anche una buona idea visto che le prestazioni delle vm non sono esattamente eccellenti, sta soluzione può andare e poi, visto il prezzo... Però dei dual potevano starci!
Ciao,
diciamo che a livello di overhead ormai gli hypervisor più diffusi hanno fatto passi da gigante... l'ostacolo più grosso rimane la velocità del layer di I/O (specialmente da e verso i dischi).
La soluzione proposta da SeaMicro (1 scheda = 8 sistemi operativi) è sicuramente interessante, ma secondo me soffre parecchio della limitazione dei 2 GB di RAM per istanza.
Insomma, rispetto a un server più pomato dove far collassare molte macchine virtuali, la soluzione SeaMicro potrebbe essere adottata quanto:
- nonostante la virtualizzazione, il server è spesso in idle
- le istanze dei sistemi operativo non richiedono più di 2 GB di ram
- gli applicati che ci girano possono cavarsela bene con un Atom
- non è richiesta memoria ECC
- viene fatto un notevole traffico sul disco e quindi la soluzione con virtual machine potrebbe trovarsi in difficoltà.
Mi sembra difficile trovare parecchi casi che soddisfino tali requisiti; tuttavia, se SeaMicro ha investito tempo e risorse nella creazione del server (con tanto di ASIC e tecnologia di interconnessione proprietaria), sicuramente deve esserci spazio per una macchina del genere...
Ciao.
prendiamo una direzione di una pubblica amministrazione:
1 PC per dipendente, infrastruttura di rete, server vari
sfruttamento del singolo PC: scarso
dei servers: mediamente elevato
della rete: a saturazione.
cambiamo infrastruttura:
terminali thin-client (tutti uguali) per i dipendenti
seamicro da 512 piccoli host
un NAS per il caricamento dei dati
un paio di server
nella pratica abbiamo spostato il lavoro su una sola macchina, rafforzato l'infrastruttura di rete (host, database e server sono vicini e possono essere linckati piu' efficacemente), indipendente dai guasti dei vari PC dei singoli dipendenti (vai e sostituisci il terminale stupido)...
alla fine questo blade e 512 thin-client costano meno di un PC a dipendente e della loro manutenzione.
tutto corredato da opensouce...
masty_<3
16-06-2010, 15:24
Ciao,
diciamo che a livello di overhead ormai gli hypervisor più diffusi hanno fatto passi da gigante... l'ostacolo più grosso rimane la velocità del layer di I/O (specialmente da e verso i dischi).
La soluzione proposta da SeaMicro (1 scheda = 8 sistemi operativi) è sicuramente interessante, ma secondo me soffre parecchio della limitazione dei 2 GB di RAM per istanza.
Insomma, rispetto a un server più pomato dove far collassare molte macchine virtuali, la soluzione SeaMicro potrebbe essere adottata quanto:
- nonostante la virtualizzazione, il server è spesso in idle
- le istanze dei sistemi operativo non richiedono più di 2 GB di ram
- gli applicati che ci girano possono cavarsela bene con un Atom
- non è richiesta memoria ECC
- viene fatto un notevole traffico sul disco e quindi la soluzione con virtual machine potrebbe trovarsi in difficoltà.
Mi sembra difficile trovare parecchi casi che soddisfino tali requisiti; tuttavia, se SeaMicro ha investito tempo e risorse nella creazione del server (con tanto di ASIC e tecnologia di interconnessione proprietaria), sicuramente deve esserci spazio per una macchina del genere...
Ciao.
Aspè vacci piano che son parecchio ignorante eh :asd:
Onestamente >2gb mi sarebbero sembrati anche esagerati no? Non so onestamente se Atom possiete la virtualizzazione hardware ma seppure la possedesse, il singolo core e la frequenza di 1,6Ghz sarebbero alquanto limitanti per le prestazioni di una vm no? Inoltre, proprio per il fatto che abbiano speso tempo e risorse per creare un simile server vuol dire che avrà anche un suo mercato no? Inoltre, a me il prezzo sembra molto ma molto basso!
devil_mcry
16-06-2010, 15:30
Preso dalla news di Tom's http://www.tomshw.it/cont/news/server-con-512-cpu-atom-pazzia-no-realta/25728/1.html
si ma quella mi sembra più una velocità di I/O più che potenza di calcolo bruta o sbaglio?
prendiamo una direzione di una pubblica amministrazione:
1 PC per dipendente, infrastruttura di rete, server vari
sfruttamento del singolo PC: scarso
dei servers: mediamente elevato
della rete: a saturazione.
cambiamo infrastruttura:
terminali thin-client (tutti uguali) per i dipendenti
seamicro da 512 piccoli host
un NAS per il caricamento dei dati
un paio di server
nella pratica abbiamo spostato il lavoro su una sola macchina, rafforzato l'infrastruttura di rete (host, database e server sono vicini e possono essere linckati piu' efficacemente), indipendente dai guasti dei vari PC dei singoli dipendenti (vai e sostituisci il terminale stupido)...
alla fine questo blade e 512 thin-client costano meno di un PC a dipendente e della loro manutenzione.
tutto corredato da opensouce...
Tutto giusto, ma è altrettanto vero che si potrebbe ottenere più o meno lo stesso risultato con qualche macchina carrozzata a dovere e varie virtual machine sopra.
Anzi, si potrebbe pensare di non usare proprio virtual machine e di affidarsi alla multiutenza del sistema operativo (es: terminal server o X11).
Ciao. :)
Aspè vacci piano che son parecchio ignorante eh :asd:
Onestamente >2gb mi sarebbero sembrati anche esagerati no? Non so onestamente se Atom possiete la virtualizzazione hardware ma seppure la possedesse, il singolo core e la frequenza di 1,6Ghz sarebbero alquanto limitanti per le prestazioni di una vm no? Inoltre, proprio per il fatto che abbiano speso tempo e risorse per creare un simile server vuol dire che avrà anche un suo mercato no? Inoltre, a me il prezzo sembra molto ma molto basso!
Ciao,
come dicevo sopra, sicuramente la macchina ha il suo mercato, altrimenti difficilmente avrebbero investino degli ASICs e nella tecnologia di interconnessione proprietaria.
Riguardo ai limiti hardware, alla fine i 2 GB per macchina non sono tantissimi anche se, essendo CPU Atom, in effetti è difficile che ci giri qualcosa di più di un web server o un file server.
I miei dubbi non sono relativi tanto alla macchina in se, quanto al fatto che non si possa raggiungere lo stesso obiettivo con poche, potenti macchine, anche considerando che non sempre Atom è il massimo in quanto a rapporto prestazioni(consumo: http://www.techreport.com/articles.x/15204/9
Ciao. :)
Narkotic_Pulse___
16-06-2010, 16:50
Ciao,
in realtà non credo che il target sia quello di "dividere" un singolo lavoro su 512 Atom, quanto piuttosto permettere di far girare centinaia di istanze del sistema operativo, ognuna con i propri servizi a bordo.
Insomma, è un po' lo stesso concetto delle virtual machine solo che, stavolta, invece di un hypervisor che astrae le CPU presenti, ogni scheda è un vero e proprio server autonomo.
Ciao. :)
si ok, ma non capisco come mai interconnettere gli atom a coppie di due, da come dice l' articolo, ci sarà un bus proprietario che interconnetterà due atom tra di loro, quindi quì mi puzza di parallelizzazione, che senso ha far girare un determinato so + i suoi servizi su una cpu e poi interconnetterla ad una altra cpu? non capisco questo.
ciao :)
si ok, ma non capisco come mai interconnettere gli atom a coppie di due, da come dice l' articolo, ci sarà un bus proprietario che interconnetterà due atom tra di loro, quindi quì mi puzza di parallelizzazione, che senso ha far girare un determinato so + i suoi servizi su una cpu e poi interconnetterla ad una altra cpu? non capisco questo.
ciao :)
Ciao,
ogni Atom è connesso a un proprio northbridge Intel, quindi non credo che questi appaiano come "accoppiati" anche al s.o. che ci gira sopra. A conferma di questo, su Anandtech viene detto che la memoria di 2 GB è esclusiva per il singolo Atom e non è condivisibile con gli altri.
Invece, come fai notare tu, gli Atom sono connessi a coppie all'ASIC proprietario di SM, ma questo serve principalmente a virtualizzare l'I/O (dischi e rete) e a gestire la doppia connessione PCI-E 32x (che a sua volta serve per realizzare la tipologia di interconnessione tra schede desiderata).
Ciao. :)
floating
16-06-2010, 17:44
Se non ho capito male la tabella, secondo i loro calcoli, per risparmiare $ 1.084.110 in quattro anni devo comprare 40 sistemi da $ 139.000 l'uno, cioè spendere $ 5.560.000 senza contare annessi e connessi????
Narkotic_Pulse___
17-06-2010, 16:21
Ciao,
ogni Atom è connesso a un proprio northbridge Intel, quindi non credo che questi appaiano come "accoppiati" anche al s.o. che ci gira sopra. A conferma di questo, su Anandtech viene detto che la memoria di 2 GB è esclusiva per il singolo Atom e non è condivisibile con gli altri.
Invece, come fai notare tu, gli Atom sono connessi a coppie all'ASIC proprietario di SM, ma questo serve principalmente a virtualizzare l'I/O (dischi e rete) e a gestire la doppia connessione PCI-E 32x (che a sua volta serve per realizzare la tipologia di interconnessione tra schede desiderata).
Ciao. :)
quindi le schede sono connesse tra loro attraverso pci express?
quindi le schede sono connesse tra loro attraverso pci express?
Si, tramite 2 connessioni PCI-E 16x gen.2 per un totale di 16 GB/s full duplex per scheda. Diciamo che la tecnologia di interconnessione è probabilmente la parte più notevole del server...
Ciao.
Narkotic_Pulse___
18-06-2010, 11:57
Si, tramite 2 connessioni PCI-E 16x gen.2 per un totale di 16 GB/s full duplex per scheda. Diciamo che la tecnologia di interconnessione è probabilmente la parte più notevole del server...
Ciao.
non l' avevo capito, allora cambia tutto, come interconnessione permette di trasferire dati molto velocemente :)
Tutto giusto, ma è altrettanto vero che si potrebbe ottenere più o meno lo stesso risultato con qualche macchina carrozzata a dovere e varie virtual machine sopra.
Anzi, si potrebbe pensare di non usare proprio virtual machine e di affidarsi alla multiutenza del sistema operativo (es: terminal server o X11).
Ciao. :)
quasi, shodan.
il tuo ragionamento funziona perfettamente nel momento in cui la rete e' unica e monotematica;
quando invece s'intrecciano diverse reti adibite a diversi ambiti (anche un'infrastruttura clone di un'altra ma con compiti diversificati, ad esempio produzione e sviluppo), non conviene avere una sola macchina a governare il tutto, perche' comunque si hanno layer separati, ed e' "di cattivo gusto" mischiarli.
in questo modo, invece, hai il modulo opetativo standard ( l'host ATOM), al quale puoi indirizzare la singola istanza, di qualsiasi natura essa sia e da qualsiasi ambito essa proviene, e farla operare disgiuntamente dagli altri moduli.
hai in pratica hardware monotipo su cui girano implementazioni differenziate e separate.
sinceramente pensavo all'azienda in cui lavoro, in cui s'intrecciano almeno 8 reti differenziate, e qualche miliaio di client, che, ora come ora, sono tutti client base ed operano in teminal web o in proprio.
il reale problema e' che se mi si scassa un terminal web di una delle reti che uso e al CED non ne hanno uno pronto per il rimpiazzo io sono costretto a spostarmi (poco male), ma se si rompe il mio client novell, su cui ho riversato tutto il mio lavoro... he.. la son dolori, perche' non m'importa della macchina di rimpiazzo, ma dei dati che ho temporaneamente storato sul client, che sono essenziali.
demandando tutto ad un datacenter ed a un terminal server come quello che si puo' infrastrutturare su una macchina del genere, al massimo collassano 8 macchine hardware di una scheda o uno dei terminali, non il mio lavoro.
certo e' che si tratta di soluzioni di nicchia, e bisogna naturalmente soppesare diversi aspetti per trovarne la reale convenienza.
quasi, shodan.
il tuo ragionamento funziona perfettamente nel momento in cui la rete e' unica e monotematica;
quando invece s'intrecciano diverse reti adibite a diversi ambiti (anche un'infrastruttura clone di un'altra ma con compiti diversificati, ad esempio produzione e sviluppo), non conviene avere una sola macchina a governare il tutto, perche' comunque si hanno layer separati, ed e' "di cattivo gusto" mischiarli.
in questo modo, invece, hai il modulo opetativo standard ( l'host ATOM), al quale puoi indirizzare la singola istanza, di qualsiasi natura essa sia e da qualsiasi ambito essa proviene, e farla operare disgiuntamente dagli altri moduli.
hai in pratica hardware monotipo su cui girano implementazioni differenziate e separate.
sinceramente pensavo all'azienda in cui lavoro, in cui s'intrecciano almeno 8 reti differenziate, e qualche miliaio di client, che, ora come ora, sono tutti client base ed operano in teminal web o in proprio.
il reale problema e' che se mi si scassa un terminal web di una delle reti che uso e al CED non ne hanno uno pronto per il rimpiazzo io sono costretto a spostarmi (poco male), ma se si rompe il mio client novell, su cui ho riversato tutto il mio lavoro... he.. la son dolori, perche' non m'importa della macchina di rimpiazzo, ma dei dati che ho temporaneamente storato sul client, che sono essenziali.
demandando tutto ad un datacenter ed a un terminal server come quello che si puo' infrastrutturare su una macchina del genere, al massimo collassano 8 macchine hardware di una scheda o uno dei terminali, non il mio lavoro.
certo e' che si tratta di soluzioni di nicchia, e bisogna naturalmente soppesare diversi aspetti per trovarne la reale convenienza.
Ciao,
certo la multiutenza proprio del s.o. va utilizzata con criterio e, laddove è necessario mantenere ambienti di esecuzione o policy di sicurezza separate, probabilmente non è così adatta.
Però ribadisco che il problema potrebbe risolversi alla radice con le virtual machine. Il ragionamento è questo:
- i normali server "carrozzati" spesso sono in idle
- il server SeaMicro è adatto quando ho molte istanze leggere da far girare
- quindi posso utilizzare i server di cui al punto n.1 per virtualizzare e aggregare così molte istanze del s.o. su poche macchine fisiche.
Sicuramente, se SeaMicro ha investito nell'ASIC e nella tecnologia di interfacciamente proprietaria, deve esserci un mercato per questa soluzione. Il punto è che questo mercato mi sembra abbastanza ristretto... poi libero di sbagliarmi eh :p
Ciao. :)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.