|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Server virtualizzazione casalingo + server storage casalingo
Salve. Ho due domande e spero che possiate aiutarmi.
Separo la discussione in due parti ben distinte al fine di semplificare la lettura. I prezzi indicati sono indicativi: vivo in Svizzera e qui le componenti sono decisamente più care. =================== VIRTUALIZZAZIONE =================== Vorrei costruirmi un server "dedicato" alla virtualizzazione di alcuni sistemi operativi da rendere accessibili nella LAN casalinga. I sistemi guest saranno principalmente GNU/Linux (diverse distribuzioni), FreeBSD e non posso escludere Windows Server (non al momento comunque) ... Sistema operativo host sarà sicuramente GNU/Linux (probabilmente Debian, anche se Centos non è da escludere). Niente Vmware Esx(i) oppure Xenserver. Dovrà essere un po' future proof (i.e. non cambiarlo dopo 1 anno) ma non deve essere qualcosa che duri per 10 anni (anche perché il prezzo aumenterebbe esponenzialmente). Penso di far girare 4-6VM in parallelo al massimo. Si tratta di una piattaforma di sviluppo ad uso personale, non una piattaforma di hosting ! Pensavo innanzitutto di dotarlo di memoria ECC al fine di renderlo un po' più stabile (16GB ECC Unbuffered è il massimo consentito dai moduli di memoria, 4x4GB ECC 1333MHz unbuffered visto che i banchi da 8GB ECC unbuffered costano come 3x8GB ECC registered). Il server sarà ON on-demand, i.e. lo spegnerò di tanto in tanto affine di risparmiare energia elettrica. Per questo l'aspetto consumo energetico dei processori diventa un po' meno importante. In seguito cade la scelta dell'accoppiata scheda madre + processore. Non vi sono molte possibilità (ragionevoli): - Socket 1155: XEON serie E3-1230 (4C/8T) o simile + ASUS P8B-WS (chipset C206 e B3 stepping) oppure Supermicro (diverse) con chipset C204 (problemi di stepping ?) -> Prezzo ~ 420 € - Socket 1366: XEON serie E/W/L/X, 1-2 processori @ (4C-6C/8T-12T) ciascuno + Mobo single socket / dual socket -> Prezzo ~ 550 € (4C/8T single socket) - 1400€ (2 x 6C/12T sual socket) OVERKILL ? - Socket AM3(+): Zambezi FX-8150 (4C/8T) o simile + ASUS (qualsiasi che supporti ECC) -> Prezzo ~ 290€ - Socket 2011: ? OVERKILL ? ====================== STORAGE ====================== Il case penso sia uno dei seguenti di NorcoTek: - RPC-4224 - RPC-4220 Possiedo già (per fortuna, vista la recente crisi) circa 14 hard disks da 2TB più alcuni da 1TB. Il server dovrà essere ON tutto il tempo. L'aspetto consumo energetico sarà dunque importante. Idealmente il processore dovrà supportare le istruzioni accellerate AES-NI (AMD Zambezi / INTEL 1155&1366) visto il numero considerevole di dischi da gestire in RAID e criptati. Sistema operativo sarà probabilmente FreeBSD oppure FreeNAS (sempre simile a FreeBSD) per via del loro supporto a ZFS. ECC indispensabile. La scelta di processori si limita di molto in questo caso. Serve un processore molto efficiente ma che possa anche fornire la potenza di calcolo necessaria. - Socket 1155: Intel Xeon serie E3-1230 o simile - Socket 1366: nessuna vera scelta, troppo caro, troppo poco efficiente energeticamente, troppo vecchio - Socket 2011: ? OVERKILL - Socket AM3(+): uniche vere scelte forse gli athlon X2 e X4 (si potrebbe disabilitare qualche core) ma in tal caso niente AES-Ni. Oppure AMD serie FX-4100 con due core disabilitati Qualche consiglio ? Vi ringrazio gentilmente per tutte le risposte che mi aiuteranno a meglio scegliere. Budget di ~ 1000€ per il server di virtualizzazione (compreso hard disks e/o SSD) e di ~ 600€ per l'accoppiata procio/mobo del server di storage. L'integrità dei dati sul server di storage è importante. Non vorrei prendere la prima mobo low-cost che mi passa sotto al naso.
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. Ultima modifica di Lucky_Luke : 31-01-2012 alle 11:24. |
|
|
|
|
|
#2 |
|
Member
Iscritto dal: Apr 2004
Messaggi: 273
|
Prova a dare un'occhiata a questo:
http://www.misco.it/store/product.as...aratteristiche Qua una recensione http://www.freemodding.it/recensioni...erver-n36.html Diciamo che con 200 euro oltre al computerino ci aggiungi 4 gb di memoria ecc, e con 1000 euro ne compri 5 (5 x 4 bay (volendo +1 bay ) pari a 20 hd disponibili in rete, con 5 biprocessori, e consumano quanto un bel server classico di pari potenza. Se hai l' occasione di vederli di persona , ti renderai conto dell' estrema qualità e precisione della loro fattura, sicuramente molto prof. Pensaci! |
|
|
|
|
|
#3 |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Grazie
Grazie per la risposta, ma questo di sicuro non è un procio di virtualizzazione, nè abbastanza capienza (4x3.5'') per lo storage.
Non ho alcun problema a costruirmi il server io stesso. Basta che sappia quali componenti scegliere. Visto il server ed è anche disponibile dalle mie parti a ~210€. Grazie
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. |
|
|
|
|
|
#4 |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 1142
|
benche non sia un grande esperto per quanto riguarda le vm, direi che dipende da quante vm saranno accese contemporaneamente e con che carico di lavoro. un conto è un webserver o una macchina per pastrocchiare un po', un altro una vb di sviluppo su cui si deve compilare sw ogni 2x3 o compiere altri aspetti cpu intensive. una volta appurato questo aspetto si può pensare se andare con uno o due CPU. comunque l'e3 12xx temo che sia un po' scrio scrio
per quanto riguarda lo storage invece li l'e3 potrebbe dire la sua. EDIT, non avevo visto la necessità di ecc anche su storage.. l'importante è tanta ram che zfs di freenas piu ne ha piu è contento. ma con quello che costa oggigiorno... solo una nota: se le VM pensavi si tenerle sul server di storage, pensa bene alla connettività. con piu vm accese e scambi di dati un singolo gigaetherrnet potrebbe andarti stretto, magari si può pensare ad un 2x o 4x port aggregation.
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza. |
|
|
|
|
|
#5 | |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Precisazione
Quote:
Innanzitutto alcune precisazioni: - Server di virtualizzazione: probabilmente 2xHDD come sistema primario + SSD dove resideranno le VM, alfine di velocizzarle [max 240GB, penso che 120GB basteranno] (backups fatti su HDD e server esterno) - Server di storage: non sono ancora sicuro sull'utilizzo di freeNAS (ho visto alcune vicende di dati completamente andati persi sul forum di freenas). Pensavo piuttosto di farmi un mio pannello in PHP per gestire tutta la LAN (so che possa sembrare un progetto folle, ma webmin non m'ispira troppo). FreeBSD sarebbe l'OS di preferenza (communità più grande, updates più frequenti, ...) - Numero di VM accese contemporaneamente: non penso di fare niente di esageratamente intensivo, non gestisco società di hosting nè voglio iniziare a farmi il server web in casa accessibile dall'esteriore. Principalmente una piattaforma LAMP di sviluppo virtualizzata (o più di una) e una (o più) VM per il "cloud"-compiling (Gentoo Linux Saranno accese al massimo 5VM simultaneamente. Almeno due dovranno essere responsive tempestivamente. Le altre potranno anche ammettere un certo ritardo. Non mi servono 5VM iperscattanti. Se testo un sito in locale anche se mi arriva 5s dopo non è la fine del mondo. Grazie mille.
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. |
|
|
|
|
|
|
#6 |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 1142
|
mi pare un ragionamento sensato. solo un appunto: visto che non è roba mission critical, perche non risparmiare un po' ed avere piu performances con un buon i7 2600 non xeon? mb e ram costerebbero meno e sarebbero piu veloci (ma avresti meno banda credo, non ricordo com'è lo xeon sotto quel punot di vista).
tanto l'ecc non so quanto possa servire su una macchina del genere. poi ripeto, non conosco i tuoi bisogni e la logistica, ne so se è roba per uso home/passione o ci devi lavorare. nel secondo caso magari non sono i 100€ che fan la differenza e materiale server ti fa stare piu tranquillo. (ho visto adesso che vuoi case rackabili. ma hai un armadio rack a portata di mano o è roba che va sotto la scrivania?)
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza. |
|
|
|
|
|
#7 |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 1142
|
per l'os di storage, hai valutato anche openmediavault (debian) e nexentastor community edition?
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza. Ultima modifica di D1o : 02-02-2012 alle 22:17. |
|
|
|
|
|
#8 | ||
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Quote:
Comunque risparmiare si potrebbe: FX-4100 + ASUS M5A99X EVO @ ~ 220€ invece dei ~ 350€ della configurazione xeon 1155 sempre supportando ECC. Resta il "problema" del consumo energetico. Vantaggio: stesso costo di un I3-2100 ma supporta AES-NI che prevedo di utilizzare. Solo che anche se undervolto l'FX-4100 "di brutto" (e underclocco) non so quanto consumerà. Quote:
Pensavo appunto di farmi il mi pannello personale di amministrazione. Agli inizi tuttavia dovrò usare uno di questi (o perlomeno una debian installata in fretta giusto per fare i backup). EDIT: uso personale e il rack sotto la scrivania
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. Ultima modifica di Lucky_Luke : 02-02-2012 alle 22:54. |
||
|
|
|
|
|
#9 |
|
Senior Member
Iscritto dal: Dec 2005
Messaggi: 1142
|
Discussione interessante.
Per quanto riguarda le ram non ecc che corrompono i dati mi sembra strano, ma non mi prendo la responsabilità di spingerti ad adottare una soluzione potenzialmente piu ruschiosa. Per quanto riguarda il discorso OS invece la pensiamo in modo totalmente diverso: tu sei un inguaribile romantico :-D mentre io lo vedo come una necessita per far girare i programmi, quindi se c'è una soluzione gia pronta che mi va bene ben venga! Non saperi quantificare il lavoro e le conoscenze necessarie per farsi un pannello di controllo da solo, comunque mi sembra un bel lavoro: buona fortuna.
__________________
Tant'è bella giovinezza / che si sfugge tuttavia! / Chi vuol esser lieto, sia: / di doman non c'è certezza. |
|
|
|
|
|
#10 |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Grazie ... è un progetto a cui mi piacerebbe dedicare un po' di tempo ... so che sarà difficile e forse rinuncerò ma per ora voglio iniziare e vedere cosa esce
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. |
|
|
|
|
|
#11 |
|
Member
Iscritto dal: Sep 2011
Messaggi: 37
|
Ciao,
ti voglio riportare la mia esperienza. Qualche mese fa la voglia di mettere in piedi un sistema del genere venne anche a me, ora non conosco nel dettaglio i tuoi obbiettivi mi da quel che mi sembra sono esattamente quelli che avevo, ed ho io. All'inizio della mia avventura io mi orientai subito verso componenti server, schede madri intel, tyan, supermicro e verso processori xeon in particolare, però più mi informavo e più mi facevo i conti in tasca decisi di lasciar stare questa componentistica e di andare sul mercato desktop. Il perchè di questa decisione? Uno: costavano troppo per me. Due: non servono per uno smanettone/sviluppatore/server-di-casa. Ovviamente l'ultima frase è una mia personale opinione, poi se uno a tutti i costi vuole e può permettersi questa componentistica server, bhe fortuna sua Riporto ora il server che utilizzo in questo momento per virtualizzare; so (ora) di aver commesso errori nella scelta dell'hardware e probabilmente ce ne sono altri che non conosco, comunque: 1. P8H67-V REV 3.0 2. i5-2400 3. Ram G.Skill Ripjaws-X F3-10666CL7Q-16GBXH 1333MHz 16GB (4x4GB) CL7-7-7-21 1.5v Uno degli errori che ho commesso è stata la scelta di questa scheda madre: monta un Qualcomm Atheros, 1 x Gigabit LAN Controller(s) non compatibile con ESXi, e con distrubuzioni Gnu/Linux, previa installazione a parte dei driver. Altra pecca di questa scheda madre (ma questo lo sapevo): Non ha un attacco usb interno, mi sarebbe piaciuto. Processore e ram, per quanto mi riguarda, ottima scelta: la rifarei. Discorso storage: Come mi fece notare anche un utente su questo forum a suo tempo il vero "problema" di questi sistemi è lo storage: "è inutile avere un sistema ultra carrozzato di ram e cpu, e poi continuamente in idle per colpa del collo di bottiglia dei dischi". Quell'utente aveva ragione, il mio problema "di lentezza" è dato proprio dai dischi inadatti che utilizzo attualmente (mancanza di liquidi La mia configurazione attuale/provvisoria, ma che funziona benissimo, di storage è: 1. SSD Crucial RealSSD M4 64GB 2. WD Green 500Gb 3. WD Blue 250Gb 4. WD Blue 250Gb 5. WD Green 500Gb 6. WD Green 500Gb Allora, 1 è dove stà il sistema operativo, al momento c'è Windows 7 64bit. 2 è dove stanno le macchine virtuali. 3 e 4 sono in raid1 di windows 7 ed è dove tengo i dati delle vm. 5 e 6 sono in raid1 di windows 7 e viene utilizzato come storage per la vm che mi fa da fileserver. La scelta di adottare il raid1 di windows 7 è stata dettata dall'impossibilità attuale di utlizzare altro tipo di raid (sotto spiego meglio). La mia configurazione di storage va ovviamente contro i best practise del caso: Sarebbe meglio suddividere lo storage delle vm su due dischi separati, per sicurezza meglio due array in mirror, questo per non saturare la banda con tutte le vm che vanno ad insistere su un solo hd. Le vm sarebbe bello averle su hd performanti, non su un WD Green 7k. Se mi si frigge l'hd 1 sono fritto. Introducendo anche uno storage in cui mettere le vm non sarebbe sufficiente, avrei il collo di bottiglia sullo storage di dati di queste vm, quindi andrebbe potenziato anche lo storage dei dati delle vm. Perchè utilizzo il raid 1 di windows 7? Per questo punto vediamo il software che utilizzo per virtualizzare. Per virtualizzare al momento utilizzo VMware Server 2. Con questo ho già risposto alla domanda del perchè utilizzo il raid di windows, comunque: Virtualizzando il fileserver devo ovviamente fargli vedere in qualche modo i dischi che deve utilizzare per lo storage, hd virtuale per il sistema operativo a parte (che stà nel disco 2). VMWare Server 2 permette il passthrough dei soli dischi SCSI: io questi dischi non li ho quindi ho dovuto aggiungere alla vm 'fileserver' un disco virtuale semplice (come quello in cui è installato il SO), e dove stà questo disco? Non certo nei dischi 3 e 4 che sono solo da 250Gb ed è dove tutte le vm tengono i dati, questo hd virtuale stà nei dischi 5 e 6: Messo in raid 1 con windows per avere un pò di sicurezza. Questo sistema di mirror sul fileserver non mi piace: Prima di installare VMware Server 2 ero partito con VMware Workstation, ottimo. Permette anche il passthrough dei dischi sata, almeno in teoria... Dopo un paio di riavvii della mia vm, questa non riconosceva più i 2 dischi in passthrough: peccato, e così ho dovuto utilizzare un raid su windows 7 (host) e non sul filesrv (guest). Perchè ho fatto tutta stà fatica per cercare di far vedere due dischi fisici (in passthrough appunto) ad una vm che mi fa da fileserver mi direte voi? Come SO per il mio fileserver utilizzo Solaris 11 Express, quindi? Quindi Solariss 11 supporta (ed è quello che lo fa meglio) ZFS. La mia vm fileserver doveva avere lo storage su dischi gestiti in ZFS e non su un mirror di windows 7, e solo facendo vedere i due hd fisici alla vm avrei potuto farlo. Mi è andata male, forse per colpa mia, forse per l'hd...non lo so. Appena avrò tra le mani un pc decente sposterò il fileserver di casa su una macchina fisica, in modo da avere uno storage in ZFS come si deve e fare sonni tranquilli. Prestazioni: Non posso che essere contento, e stupito che nonostante i dischi scadenti per vm/storage-vm che utilizzo abbia delle prestazioni del genere. Al momento sono al portatle, sono in desktop remoto su windows 7 (host) e stò gestendo tramite console di vmware server 2: . una macchina Windows xp sp2 (muletto) . una vm Windows Server 2003 (iis, svn), in update . una macchina Windows Server 2003 (sql dev 2005, postgresql), installazione sql dev 2005 sempre sull' host al momento è in esecuzione: . file server (Solaris 11 Express) . Debian wheezy (dev) Il taskmanager di windows 7 (host) dice 6.5 Gb di ram occupata e cpu 10-20%. Da tenere presente il fatto che all'avvio dell'host le vm che vi ho elencato sopra partono in automatico, in più ci sono altre macchine che avvio di tanto in tanto, compreso una con windows 7 (dev). Considerazioni: Al momento stò lavorando per migliorare lo storage, ma è un miglioramente che voglio fare io in realtà non servirebbe e per spostare il file server su una macchina fisica (voglio lo storage del file server su zfs). Inoltre prenderò anche una scheda di rete compatibile con ESXi, sposterò tutta la baracca su di esso. Pensavo di comprare un ups per sicurezza, ma qui la virtualizzazione c entra poco Considerazioni veloci / inutili / PERSONALI: Dalla mia esperienza, gestire il tutto con VirtualBox è possibile ma psicologicamente frustante Gestire il tutto con qemu è possibile ma palloso, facendosi degli script ad hoc funziona...ma che palle...per gestire un ambiente del genere a casa voglio un ambiente di gestione comodo, se butto 1 Gb di ram non mi interessa. XenServer, ho dovuto creare i pool per lo storage a mano ma è fico e ho trovato buona documentazione: 30min senza aver mai visto xen. Ho buttato xenserver perchè dopo 3 o 4 tentativi non riuscivo ad installare Solaris 11 Express (si bloccava l'installazione) e mi ero rotto. Hyper-v Core, funziona d'avvero? Ho speso 2-3 ore per cercare di farlo funzionare ma non riuscivo a gestire da remoto con i tool di amministrazione remota...bho Perchè non ho messo VMWare Server su Debian? Perchè dalla mia esperienza funziona male (vedi patch pre-installazione per kernel 2.6.x altrimenti non installi). Perchè al punto sopra c'è Debian? Perchè è la distribuzione che conosco meglio ed un sistema del genere lo farei solamente con lei. Perchè Solaris 11 come fileserver ? Freenas non ha una buona gestione di zfs, mi sembra di ricordare che non permette di creare pool da interfaccia web, oppure che non permette di fare sempre da web importanti operazioni. Se devo utilizzare FreeNas ed utilizzare la shell allora tanto vale qualcosa usare qualcosa che funzioni come si deve. Solaris 11 gestisce a meraviglia zfs ed è un bagaglio culturale da portarsi sul lavoro. Mi è sembrata molto carina l'interfaccia web napp-it per la gestione di pool zfs, peccato che sulla mia vm non mi vedesse i dischi (in passthrough altrimenti non ha senso). Questa è la mia esperienza, e spero di averti dato qualche punto su cui riflettere. Un consiglio, più che a componenti ultra potenti dai un'occhio anche alla compatibilità hw. (vedo la mia scheda di rete incompatibile con Esxi). Rileggendo mi rendo conto di aver scritto un racconto più che un post e di non essere stato molto chiaro (vedi il perchè del raid 1 per i dischi 5 e 6), se vi interessano più info chiedete pure. Negli ultimi punti sono stato un pò frettoloso ma ho fretta..scusate... Spero non ci sia una regola del forum sulla lunghezza dei post Ciao! Ultima modifica di netburst : 04-02-2012 alle 13:38. |
|
|
|
|
|
#12 |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
netburst, grazie per la tua lunga e incoraggiante descrizione.
Tuttavia la mia situazinoe penso sia leggermente diversa. Ho intenzione di creare due server fisici separati per virtualizzazione e storage. Innanzitutto perchè non mi fido troppo a avere lo storage sotto una VM (che sia Xen o VMWARE poco importa) e secondariamente perché ritengo che le performance non debbano essere compromesse dalla presenza di più o meno macchine virtuali. Una parte del tuo post mi ha tuttavia fatto riflettere: possedo un i5-2500K (lo so, non ha VT-D azz) in una mobo Z68 e per ora non lo ho ancora sfruttato ... A sto punto potrei benissimo installarci una bella debian e gestire xen con convirture open source edition. Per una virtualizzazione di "base" dovrebbe bastare. ----------------------------------------------------------------------------------- Inoltre sto riflettendo sul fatto di avere un server "dedicato" alla virtualizzazione. Perché invece non fare una specie di cloud composta da 2 o 3 computer fisici e che si ripartiscono le VM ? Costa meno che un dual socket xeon e offre migliori performances. 2 servers basati su AMD serie FX-4100 e FX-8120 a vantaggio del prezzo e delle caratteristiche avanzate di virtualizzazione (uno di questi gestirà anche backups, l'altro lo storage). A scapito delle brutte review che questi processori hanno ricevuto in single thread, fortunatamente la virtualizzazione essendo multi thread potrebbe essere l'utilizzazione fruttosa di queste cpu. Tuttavia resto poco convinto su Solaris 11. Anche FreeNAS mi desta alcuni dubbi (alcuni utenti hanno perso tutti i loro dati semplicemente facendo uno snapshot). FreeBSD mi sembrerebbe la scelta migliore (comunità, aggiornamenti), solo che dovrei prima farmi un pannello di controllo via web. Siccome Solaris 11 è fatto da Oracle non so quanto dovrei fidarmi ... Riassumendo la configurazione "cloud" (ovviamente tra virgolette !!!) sarebbe: - Server principale (acceso 24/7) INTEL Sandy Bridge I5-2500K, 16GB RAM non-ECC (virtualizzazione + hosting SVN nella LAN e altre funzioni del genere) - Server di storage (acceso on-demand) AMD FX-4100, 16GB RAM ECC (storage con FreeNAS / FreeBSD / Solaris ??? + virtualizzazione virtualbox ?) - Server di backup (acceso on-demand) AMD FX-8120, 16GB RAM ECC (backup su debian linux + virtualizzazione con xen/virtualbox) In più avrei un router (Debian linux / Gentoo linux) su AMD Athlon X2 che gestisce la LAN gigabit (magari anche facendo un link aggregation per trasformarla in 3Gbps Ci può stare ? Grazie mille anticipatamente.
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. |
|
|
|
|
|
#13 |
|
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3583
|
@netburst:
esaustiva descrizione d'aiuto per molte persone, però ti avverto (non so se già lo sai) di una cosa: con ESXI a meno di non avere un controller RAID hardware i dischi non li puoi mirrorare, e quindi il disco di sistema delle VM sarà in una posizione un pò pericolosa (visto che il filesystem di ESXI non è facilmente recuperabile come può esserlo NTFS oppure EXT) In alternativa per tenere il mirror potresti creare il Raid con WS 2008 fisico e quindi creare le VM con Hyper-V Ti consiglio inoltre di adottare ram ECC per evitare corruzione dei dati. @Lucky_Luke L'ultima configurazione che hai scritto mi sembra davvero buona (a patto ovviamente di avere diversi NIC di rete per ogni VM). Ottima la scelta di suddividere i compiti su diverse macchine, per il router secondo me ti può bastare un AMD E350 che consuma molto meno di un X2. |
|
|
|
|
|
#14 | |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Quote:
Comunque il problema mi si pone in quanto alla scelta del case: al momento l'ho messo in un case SilverStone SST-ML03B e lo uso come client (potrei swapparlo con il X2 senza troppi problemi). Però questo case ha il problema di essere troppo largo: mi servirebbe un case microATX che sia al max 24cm(larghezza)x32cm(altezza)x...(profondità) (o anche 32cmx32cmx...)e non ce ne sono a quanto ne sappia io (in pratica dovrebbe andare in uno di quelle specie di librerie a "L" che non hanno il "fondo" dietro). Il problema ulteriore è che quella mobo non supporta ECC (e nessun E-350 di mia conoscenza). Pensavo al Fractal Design Define R3 Bianco da mettere sull'ultimo "gradino" di questa specie di libreria in verticale visto che perlomno è silenzioso. Altri suggerimenti ? Grazie mille. EDIT: scusa la domanda, ma perché diversi NIC di rete per ogni VM ? Cmq pensavo di sbatterci su dei NIC intel pci express da 25€ l'uno circa (ed alcuni PCI se non ho piÙ pciE libere).
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. Ultima modifica di Lucky_Luke : 04-02-2012 alle 14:57. |
|
|
|
|
|
|
#15 |
|
Member
Iscritto dal: Sep 2011
Messaggi: 37
|
@malatodihardware:
Hai fatto bene a precisare. Il discorso sulle ECC è sicuramente molto valido e me lo tengo come appunto. @Lucky_Luke Per la scelta dell'hardware, eventuali incompatibilità a parte, hai il mio consenso. Come prima, ti consiglio sempre di fare attenzione allo storage. Per il discorso Solaris 11 & Oracle lo condivido fino ad un certo punto, perchè non ci si dovrebbe fidare? La documentazione è molto buona e precisa. FreeBSD sicuramente ha una comunità migliore, ma il supporto a zfs com'è? Mi era sembrato di capire che freebsd non supporti in tutto e per tutto zfs, e nel modo migliore. Per l'interfaccia web guarda napp-it, credo sia disponibile anche su freebsd. Queste ovviamente sono considerazioni valide qualora si decida di utilizzare zfs come sistema di storage. Per il discorso fileserver a parte, non virtualizzato, condivido in pieno, come ho anche scritto appena mi sarà possibile porterò il mio su una macchina fisica. Per il discorso che avevo fatto sul fatto che volevo migrare su Esxi in realtà ho scritto male e di fretta. Quello che volevo dire era che ci stavo si pensando, ma stavo valutando il fatto che per il mio ambiente (test/sviluppo) in cui ho solamente una macchina per virtualizzare sarebbe, forse, meglio virtualizzare due o tre Esxi così da poter fare test che con un solo Esxi su macchina fisica non potrei fare. Ultima modifica di netburst : 04-02-2012 alle 15:08. |
|
|
|
|
|
#16 |
|
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3583
|
La memoria ECC sul router non la vedo così importante.
Per il case prova a vedere l'Antec Cube (non ho capito bene il discorso dimensioni ma sembrerebbe starci). I NIC te li consiglio distinti per una questione di performance (se trasferisci contemporaneamente sui due o tre server collegati allo stesso NIC hai un collo di bottiglia) e di sicurezza (nel caso sciaguratamente si rompa un NIC rimane isolata solo quella e non tutte quelle che poggiano su quel NIC) |
|
|
|
|
|
#17 | |
|
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3583
|
Quote:
|
|
|
|
|
|
|
#18 | ||
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
@netburst Grazie per acer indicato napp-it, ci darò un'occhiata
@malatodihardware Quote:
Spero di essermi spiegato. Purtroppo non trovo l'immagine del prodotto originale. Simbolicamente è un coso del genere: Quote:
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. Ultima modifica di Lucky_Luke : 04-02-2012 alle 15:26. |
||
|
|
|
|
|
#19 |
|
Senior Member
Iscritto dal: Sep 2008
Messaggi: 3583
|
NIC differenti intendevo non per marca, ma fisicamente su porte diverse..
Comunque se vai link aggregator allora va benissimo così, non avevo capito Per il case quello è il primo che mi è venuto in mente, ma penso che nel form factor cubico ve ne siano diversi che possono fare al caso tuo. PS: Io ho appena preso un x-qpack per l'HTPC ma mi sembra un filo più grande di quello che hai chiesto |
|
|
|
|
|
#20 | |
|
Member
Iscritto dal: Jul 2006
Città: In Linux (Gentoo, Debian, Archlinux, Slackware, Ubuntu, Opensuse)
Messaggi: 37
|
Ah ok.
Comunque l'Antec NSK1380 (come consigliato da te) sembra buono. Ha anche l'alimentatore integrato e la UPS ci sta bene affianco (peccato per il colore In alternativa ho trovato il SILVERSTONE SST-SG02-F (disponibile anche in bianco Quell'antec è silenzioso ? Quote:
Ma sei così sicuro che un AMD E-350 basti Ce l'ho sul client e si tira dietro a fatica :S Quanto al case devo dire che non sono molto convinto sulla scelta ... Mi spiego: con i case classici di tipo tower i dischi si tirano fuori tipo cassetti, ma questi case mini-itx / micro-atx bisogna smontare mezzo case per togliere / aggiungere HDD e in caso di failure non sarebbe il massimo. Il fractal design Core 1000 é bello compatto anche se decisamente troppo profondo. In alternativa all'antec / silverstone avresti qualche case midi-tower (o mini-tower) alto al max 45cm e profondo <(<) 40cm da mettere sull'ultimo gradino dello scaffale Grazie mille. Praticamente ho scelto tutti i pezzi per i vari pc e mi manca solo il case del router
__________________
Lunga vita a Linux. Abbasso il TCPA, TPM e il DRM. Viva la liberta` di espressione e condivisione delle informazioni. Viva il free-software. |
|
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 21:33.




















