View Full Version : Predisporre un SERVER gemello.. oppure ?
actech78
08-11-2012, 13:25
Ciao a tutti!
Vorrei un consiglio, spiego in breve la problematica... abbiamo installato per la prima volta un Server DELL PowerEdge T110 II nel nostro ufficio (dunque esperienza ne abbiamo poca) con installato Windows server 2008 R2 foundation. Tale server fa girare 2 database gestionali (SQL) e vengono effettuate per sicurezza copie di Backup su NAS tutti i giorni sia dei dB che dell'intero Hard Disk.
Tra poco faremo girare un altro database per un gestionale di produzione (collegato direttamente a dei macchinari in real-time) su database ORACLE. Qui nasce il problema, una semplice copia di sicurezza del dB o dell'hard disk non basta più perchè se disgraziatamente si guasta il server anche solo per 1 giorno abbiamo la produzione completamente ferma!. Dunque da qui nasce la necessità di avere un backup che possa funzionare nell'immediato in caso di problemi. Anche una soluzione HD estraibile è stata scartata, dovesse guastarsi proprio l'HD saremmo punto e a capo.
Abbiamo pensato ad un server gemello che oltre tutto avremmo ancora la possibilità di acquistare essendo il nostro recente (identico in hardware e software), che attiveremmo solo in caso di problemi con il primo server. Può essere una buona soluzione ? C'è qualche soluzione alternativa ? Il problema sarebbe più che altro tenere gironalmente se non addirittura in tempo reale aggiornato il server di backup che però non sapremmo come fare, esistono dei software appositi oppure sono necessari degli hardware appositi tra i due server ? (potrebbe andare bene Paragon Drive Backup 11 Server ?) Come verrebbero gestiti gli indirizzi IP dei due server sulla rete ? (andrebbero in conflitto se attivi entrambi)
Insomma attendo consigli!!
Grazie
Tasslehoff
08-11-2012, 17:43
Partiamo dal presupposto che senza implementare qualche architettura clusterizzata in caso di disastro qualunque soluzione presuppone un tempo più o meno lungo di recovery.
La lunghezza del recovery può variare in base a parecchi fattori, se ad esempio ti limiti a fare un backup dei db ma non del sistema operativo e dei binari del dbms, in caso di disastro il tempo che ti servirà a ripristinare sarà: t(OS) + t(BIN) + t(restore)
dove t(OS) è il tempo necessario a reinstallare l'OS, t(BIN) è il tempo necessario a reinstallare il servizio, t(restore) è il tempo necessario a ripristinare il backup.
Affiancando al backup dei db un ghost del sistema operativo riduci t(OS) e t(BIN) ad un'unica operazione di ripristino del ghost (che generalmente si riduce principalmente a tempo macchina, mentre la reinstallazione presuppone anche una notevole quantità di tempo uomo per la riconfigurazione dell'OS e dei servizi), a cui farà seguito il restore del backup dei db.
Questo in linea generale per aver ben presente quello che puoi fare per migliorare l'attuale procedura di disaster recovery senza imbarcarti in architetture più complesse (e quindi più fragili a prescindere).
Se invece vuoi proprio uno switch a caldo da un nodo all'altro in caso di guasto ci sono soluzioni di clustering active-active o soluzionei active-passive.
Le prime hanno il vantaggio di non generare alcuna interruzione nel passaggio da un nodo all'altro, però sono generalmente più costose da implementare e devono essere usate correttamente anche dai servizi che utilizzano il db (es Oracle RAC).
Le seconde hanno il vantaggio di essere più economiche e più semplici da implementare, però nel passaggio dei servizi da un nodo all'altro richiedono un certo gap temporale per riassegnare le risorse e riattivare i servizi (gap che può essere di qualche secondo o minuto, resta il fatto che l'interruzione c'è e gli eventuali servizi che usano quelle risorse possono interrompersi o generare errori).
Questo per quanto riguarda l'architettura, una volta deciso che approccio seguire occorre dotarsi dell'hardware e del software necessario a mettere in pratica tutto questo, es storage condiviso (NAS o SAN), licenze etc etc.
In questo caso però preparatevi a mettere mano al portafogli :asd:
Alfonso78
09-11-2012, 10:53
Ciao a tutti!
e vengono effettuate per sicurezza copie di Backup su NAS tutti i giorni sia dei dB che dell'intero Hard Disk.
Quale applicativo avete utilizzato?
Affiancando al backup dei db un ghost del sistema operativo
Tass quale software consigli per effettuare i ghost? Anche in ambito soho con 1 o 2 server al massimo.
Tasslehoff
09-11-2012, 10:57
Tass quale software consigli per effettuare i ghost? Anche in ambito soho con 1 o 2 server al massimo.Su Windows sicuramente Drive Snapshot, su linux non server alcun software particolare, ti basta tar o al limite dd.
PhoEniX-VooDoo
09-11-2012, 12:53
Su Windows sicuramente Drive Snapshot, su linux non server alcun software particolare, ti basta tar o al limite dd.
deformazione professionale? :asd:
anche a me capita sempre :D
Tasslehoff
09-11-2012, 13:23
deformazione professionale? :asd:
anche a me capita sempre :DAzz hai ragione, sapessi quante volte mi capita... :asd:
actech78
02-01-2013, 15:33
Partiamo dal presupposto che senza implementare qualche architettura clusterizzata in caso di disastro qualunque soluzione presuppone un tempo più o meno lungo di recovery.
La lunghezza del recovery può variare in base a parecchi fattori, se ad esempio ti limiti a fare un backup dei db ma non del sistema operativo e dei binari del dbms, in caso di disastro il tempo che ti servirà a ripristinare sarà: t(OS) + t(BIN) + t(restore)
dove t(OS) è il tempo necessario a reinstallare l'OS, t(BIN) è il tempo necessario a reinstallare il servizio, t(restore) è il tempo necessario a ripristinare il backup.
Affiancando al backup dei db un ghost del sistema operativo riduci t(OS) e t(BIN) ad un'unica operazione di ripristino del ghost (che generalmente si riduce principalmente a tempo macchina, mentre la reinstallazione presuppone anche una notevole quantità di tempo uomo per la riconfigurazione dell'OS e dei servizi), a cui farà seguito il restore del backup dei db.
Questo in linea generale per aver ben presente quello che puoi fare per migliorare l'attuale procedura di disaster recovery senza imbarcarti in architetture più complesse (e quindi più fragili a prescindere).
Se invece vuoi proprio uno switch a caldo da un nodo all'altro in caso di guasto ci sono soluzioni di clustering active-active o soluzionei active-passive.
Le prime hanno il vantaggio di non generare alcuna interruzione nel passaggio da un nodo all'altro, però sono generalmente più costose da implementare e devono essere usate correttamente anche dai servizi che utilizzano il db (es Oracle RAC).
Le seconde hanno il vantaggio di essere più economiche e più semplici da implementare, però nel passaggio dei servizi da un nodo all'altro richiedono un certo gap temporale per riassegnare le risorse e riattivare i servizi (gap che può essere di qualche secondo o minuto, resta il fatto che l'interruzione c'è e gli eventuali servizi che usano quelle risorse possono interrompersi o generare errori).
Questo per quanto riguarda l'architettura, una volta deciso che approccio seguire occorre dotarsi dell'hardware e del software necessario a mettere in pratica tutto questo, es storage condiviso (NAS o SAN), licenze etc etc.
In questo caso però preparatevi a mettere mano al portafogli :asd:
Ciao!
Ti ringrazio per l'esaustiva risposta... in queste ultime settimana l'azienda ha acquistato un server identico al primo, con medesimo sistema operativo (win server 2008 R2 foundation) almeno per evitare che non fosse più prodotto nei medesimi componenti.
Rimane il dilemma di cosa fare in caso di blocco del primo server, premetto che anche se per pochi minuti dovesse mancare un flusso di dati non succederebbe un disastro, quindi una soluzione economica sicuramente è la migliore. Per quanto riguarda il Ghost (o simili) sicuramente possiamo farlo visto che al momento una copia immagine del sistema manca, ci sono solo backup singoli (con l'app nativa di win) dei vari documenti, database ecc..
La soluzione failover cluster potrebbe fare al caso mio? Non ho ben chiaro il suo funzionamento ma il SO supporta tale funzione, leggendo un pò in Internet mi pare di aver capito che è necessario un NAS/SAN dedicato da collegare ai due server 1+2 (quindi presumo che entrambi i server debbano avere almeno 2 porte ethernet giusto?), quindi mi ritroverei un ip virtuale dei due server, entrambe le macchine sarebbero connesse al NAS/SAN direttamente tramite una porta ETH dedicata, mentre l'altra porta ETH andrebbe allo switch/LAN con altro indirizzo IP è corretto ?
Se l'installazione non dovesse essere complessa potrei tantare in questo modo, vorrei solo capire se va bene per le nostre esigenze ed eventualmente che NAS/SAN acquistare, un'altra cosa che non mi è chiara è cosa dovrei installare nel 2° server, una copia perfetta del 1° ?
Scusate le domande banali :doh: :help:
Tasslehoff
03-01-2013, 12:44
Tass quale software consigli per effettuare i ghost? Anche in ambito soho con 1 o 2 server al massimo.Nel caso di server Windows io consiglio Drive Snapshot, costa poco e ti permette di creare snapshot a caldo anche incrementali, il tutto facilmente schedulabile mediante comodi file bat, vedo che l'ultima versione poi permette la creazione degli snapshot anche su server ftp, ottimo per sfruttare un repository remoto.
Per server linux di base si può usare tar (escludendo /dev /proc e /sys), schedulabile con cron mediante un semplice script bash.
Se invece si utilizza lvm sono molto comodi gli snapshot dei logical volumes, basta uno script bash che crei lo snapshot, ne faccia il tar e poi lo cancelli.
In alternativa c'è il sempreverde dd, però se non si fa attenzione alla dimensione dei blocchi risulta estremamente lungo.
Ciao!
Ti ringrazio per l'esaustiva risposta... in queste ultime settimana l'azienda ha acquistato un server identico al primo, con medesimo sistema operativo (win server 2008 R2 foundation) almeno per evitare che non fosse più prodotto nei medesimi componenti.
Rimane il dilemma di cosa fare in caso di blocco del primo server, premetto che anche se per pochi minuti dovesse mancare un flusso di dati non succederebbe un disastro, quindi una soluzione economica sicuramente è la migliore. Per quanto riguarda il Ghost (o simili) sicuramente possiamo farlo visto che al momento una copia immagine del sistema manca, ci sono solo backup singoli (con l'app nativa di win) dei vari documenti, database ecc..
La soluzione failover cluster potrebbe fare al caso mio? Non ho ben chiaro il suo funzionamento ma il SO supporta tale funzione, leggendo un pò in Internet mi pare di aver capito che è necessario un NAS/SAN dedicato da collegare ai due server 1+2 (quindi presumo che entrambi i server debbano avere almeno 2 porte ethernet giusto?), quindi mi ritroverei un ip virtuale dei due server, entrambe le macchine sarebbero connesse al NAS/SAN direttamente tramite una porta ETH dedicata, mentre l'altra porta ETH andrebbe allo switch/LAN con altro indirizzo IP è corretto ?
Se l'installazione non dovesse essere complessa potrei tantare in questo modo, vorrei solo capire se va bene per le nostre esigenze ed eventualmente che NAS/SAN acquistare, un'altra cosa che non mi è chiara è cosa dovrei installare nel 2° server, una copia perfetta del 1° ?
Scusate le domande banali :doh: :help:Per quanto concerne i ghost vedi sopra, Drive Snapshot è fantastico e costa pochissimo, lo consiglio vivamente.
Per quanto riguarda i backup non conosco bene il software nativo di Windows, posso solo consigliare di usare l'ottimo Bacula (http://www.bacula.org/en/), non ti costa nulla e ha un approccio identico a quello dei più blasonati software di backup enterprise (Tivoli Storage Manager, BackupExec etc etc).
Riguardo al cluster credo sia impossibile implementarlo con Win 20k foundation, la documentazione MS parla chiaro (LINK1 (http://technet.microsoft.com/en-us/library/cc771404.aspx#BKMK_Software_Requirements) LINK2 (http://technet.microsoft.com/en-us/library/dd744832(v=ws.10).aspx)) "You cannot deploy Windows Server 2008 R2 Foundation as a failover cluster node. If you want to add a failover cluster node, you should deploy Windows Server 2008 R2 Enterprise."
A meno di migrare a Windows 2008 R2 Enterprise proprio non se ne parla :(
Per quanto riguarda lo storage condiviso dovrete usare una SAN (usando delle HBA fibre channel con o senza multipath, vedete voi in base alle vostre esigenze e budget) o un NAS (in questo caso usando protocollo iSCSI), in entrambi i casi tieni presente che si tratterà di un investimento ingente.
Le SAN sono estremamente costose, solo le HBA da installare sui due server costeranno sulle 6/700 euro l'una (se vuoi configurare il multipath raddoppiano, la san dovrà avere doppio controller e ti servirà anche uno switch FC, l'ultimo che ho visto da 40 porte costava 25k euro, per un 8 porte metti in conto fra i 3000 e i 5000 euro di spesa, più qualche centinaio di euro tra minuteria varia e cablaggi).
Nel caso scegliessi iSCSI sicuramente spenderai di meno, ma comunque non pensare di cavartela con degli switch unmanaged o usando la stessa infrastruttura di rete su cui passano i dati, finiresti per avere delle performance paragonabili a un disco degli anni '90; per cui occorre anzitutto un nas serio (eviterei giocattoli qnap o synology e consiglierei qualcosa di più affidabile tipo IBM), una infrastruttura di rete ben configurata e segmentata e HBA TOE (TCP Offload Engine) dedicate.
Una volta configurato l'hardware si passa al sw, occorre anzitutto un dominio Active Directory (e questo è il prezzo da pagare per un cluster Windows, se si trattasse di un cluster RedHat non avresti tutti questi problemi :O ), poi si passa alla configurazione del cluster vero e proprio.
I due server che fungeranno da nodi del cluster dovranno avere installato gli stessi software (non pensare di ghostare e ripristinare un nodo sull'altro, non oso pensare alle urla di dolore di Active Directory :asd: ), in particolare il software che vuoi che venga avviato in cluster dovrà girare come servizio e dovrà utilizzare lo storage condiviso come repository.
Naturalmente non pensare che tutto questo possa in qualche modo sostituire backup e snapshot, è solo una misura che garantisce continuità di servizio.
Anzi, in caso di problemi è un'architettura molto più complessa e fragile, soprattutto trattandosi di cluster Windows; nel caso di cluster linux nel caso ci fossero problemi la soluzione sarebbe relativamente semplice e anche far ripartire i servizi su un solo nodo come server singolo non è una tragedia, con i cluster Windows invece è pianto e stridore di denti :mad:
Essendo tutto molto integrato con il sistema operativo (in modo molto oscuro e contorto imho ::doh: ) non è impossibile incappare in situazioni in cui a fronte di un disastro rimettere online il cluster è impossibile, così tocca distruggerlo a rifare tutto da capo.
Pensa che a me è capitato di prendere a craniate un cluster Windows per giorni, e questo solo per sganciare un nodo e farlo funzionare come server singolo dopo che era stato dismesso il dominio Active Directory su cui erano registrate le macchine, alla fine ce l'ho fatta (http://tasslehoff.burrfoot.it/?p=464) ma che fatica...
E' stata un'esperienza dolorosa ma mi ha insegnato a stare alla larga dai cluster Windows :O
actech78
03-01-2013, 15:12
Nel caso di server Windows io consiglio Drive Snapshot, costa poco e ti permette di creare snapshot a caldo anche incrementali, il tutto facilmente schedulabile mediante comodi file bat, vedo che l'ultima versione poi permette la creazione degli snapshot anche su server ftp, ottimo per sfruttare un repository remoto.
Per server linux di base si può usare tar (escludendo /dev /proc e /sys), schedulabile con cron mediante un semplice script bash.
Se invece si utilizza lvm sono molto comodi gli snapshot dei logical volumes, basta uno script bash che crei lo snapshot, ne faccia il tar e poi lo cancelli.
In alternativa c'è il sempreverde dd, però se non si fa attenzione alla dimensione dei blocchi risulta estremamente lungo.
Per quanto concerne i ghost vedi sopra, Drive Snapshot è fantastico e costa pochissimo, lo consiglio vivamente.
Per quanto riguarda i backup non conosco bene il software nativo di Windows, posso solo consigliare di usare l'ottimo Bacula (http://www.bacula.org/en/), non ti costa nulla e ha un approccio identico a quello dei più blasonati software di backup enterprise (Tivoli Storage Manager, BackupExec etc etc).
Riguardo al cluster credo sia impossibile implementarlo con Win 20k foundation, la documentazione MS parla chiaro (LINK1 (http://technet.microsoft.com/en-us/library/cc771404.aspx#BKMK_Software_Requirements) LINK2 (http://technet.microsoft.com/en-us/library/dd744832(v=ws.10).aspx)) "You cannot deploy Windows Server 2008 R2 Foundation as a failover cluster node. If you want to add a failover cluster node, you should deploy Windows Server 2008 R2 Enterprise."
A meno di migrare a Windows 2008 R2 Enterprise proprio non se ne parla :(
Per quanto riguarda lo storage condiviso dovrete usare una SAN (usando delle HBA fibre channel con o senza multipath, vedete voi in base alle vostre esigenze e budget) o un NAS (in questo caso usando protocollo iSCSI), in entrambi i casi tieni presente che si tratterà di un investimento ingente.
Le SAN sono estremamente costose, solo le HBA da installare sui due server costeranno sulle 6/700 euro l'una (se vuoi configurare il multipath raddoppiano, la san dovrà avere doppio controller e ti servirà anche uno switch FC, l'ultimo che ho visto da 40 porte costava 25k euro, per un 8 porte metti in conto fra i 3000 e i 5000 euro di spesa, più qualche centinaio di euro tra minuteria varia e cablaggi).
Nel caso scegliessi iSCSI sicuramente spenderai di meno, ma comunque non pensare di cavartela con degli switch unmanaged o usando la stessa infrastruttura di rete su cui passano i dati, finiresti per avere delle performance paragonabili a un disco degli anni '90; per cui occorre anzitutto un nas serio (eviterei giocattoli qnap o synology e consiglierei qualcosa di più affidabile tipo IBM), una infrastruttura di rete ben configurata e segmentata e HBA TOE (TCP Offload Engine) dedicate.
Una volta configurato l'hardware si passa al sw, occorre anzitutto un dominio Active Directory (e questo è il prezzo da pagare per un cluster Windows, se si trattasse di un cluster RedHat non avresti tutti questi problemi :O ), poi si passa alla configurazione del cluster vero e proprio.
I due server che fungeranno da nodi del cluster dovranno avere installato gli stessi software (non pensare di ghostare e ripristinare un nodo sull'altro, non oso pensare alle urla di dolore di Active Directory :asd: ), in particolare il software che vuoi che venga avviato in cluster dovrà girare come servizio e dovrà utilizzare lo storage condiviso come repository.
Naturalmente non pensare che tutto questo possa in qualche modo sostituire backup e snapshot, è solo una misura che garantisce continuità di servizio.
Anzi, in caso di problemi è un'architettura molto più complessa e fragile, soprattutto trattandosi di cluster Windows; nel caso di cluster linux nel caso ci fossero problemi la soluzione sarebbe relativamente semplice e anche far ripartire i servizi su un solo nodo come server singolo non è una tragedia, con i cluster Windows invece è pianto e stridore di denti :mad:
Essendo tutto molto integrato con il sistema operativo (in modo molto oscuro e contorto imho ::doh: ) non è impossibile incappare in situazioni in cui a fronte di un disastro rimettere online il cluster è impossibile, così tocca distruggerlo a rifare tutto da capo.
Pensa che a me è capitato di prendere a craniate un cluster Windows per giorni, e questo solo per sganciare un nodo e farlo funzionare come server singolo dopo che era stato dismesso il dominio Active Directory su cui erano registrate le macchine, alla fine ce l'ho fatta (http://tasslehoff.burrfoot.it/?p=464) ma che fatica...
E' stata un'esperienza dolorosa ma mi ha insegnato a stare alla larga dai cluster Windows :O
Ho l'impressione che la soluzione failover cluster è da abbandonare, a parte i costi... anche la complessità e nemmeno 100% sicuro :doh: Comunque l'assistenza DELL mi confermò che con un server identico al nostro (che poi abbiamo acquistato) e il SO installato era possibile utilizzare il servizio failover... boh... a questo punto comunque cambierei soluzione.
Visto che il server gemello è disposibile, piuttosto opterei per una funzione "muletto", se si ferma il 1° server (per qualsiasi motivo) avvieremo il 2° in manuale, ma a quel punto tutti i dati dovranno essere ripristinati anche se si parla si è no di 300mb tra tutto, penso ci voglia poco. Non è una soluzione pro ma almeno non costa nulla ed è forse più semplice per noi. Se volessi optare per questa soluzione come pensi possa gestire la cosa ? Forse a quel punto non sarebbe davvero più comodo utilizzare il 2° server esattamente come gemello del 1° con un ripristino di Ghost (o programmi simili) ? anche se perderei l'attuale licenza originale :doh: in quanto raddoppierei la prima... mentre per il ripristino dei 2 database (in caso di blocco 1° server) potrei fare delle copie di BK su NAS (che abbiamo già) ogni ora oppure anche ogni 10 minuti visto le basse dimensioni... così da perdere il meno possibile al momento del ripristino sul 2° server che verrà avviato, che dici ? software alternativi che possano aiutarmi in questa evenienza ? altrimenti mi butterei su nortorn ghost che conosco già bene, anche se non è affidabilissimo a volte :banned:
Tasslehoff
03-01-2013, 17:35
Ho l'impressione che la soluzione failover cluster è da abbandonare, a parte i costi... anche la complessità e nemmeno 100% sicuro :doh: Comunque l'assistenza DELL mi confermò che con un server identico al nostro (che poi abbiamo acquistato) e il SO installato era possibile utilizzare il servizio failover... boh... a questo punto comunque cambierei soluzione.
Visto che il server gemello è disposibile, piuttosto opterei per una funzione "muletto", se si ferma il 1° server (per qualsiasi motivo) avvieremo il 2° in manuale, ma a quel punto tutti i dati dovranno essere ripristinati anche se si parla si è no di 300mb tra tutto, penso ci voglia poco. Non è una soluzione pro ma almeno non costa nulla ed è forse più semplice per noi. Se volessi optare per questa soluzione come pensi possa gestire la cosa ? Forse a quel punto non sarebbe davvero più comodo utilizzare il 2° server esattamente come gemello del 1° con un ripristino di Ghost (o programmi simili) ? anche se perderei l'attuale licenza originale :doh: in quanto raddoppierei la prima... mentre per il ripristino dei 2 database (in caso di blocco 1° server) potrei fare delle copie di BK su NAS (che abbiamo già) ogni ora oppure anche ogni 10 minuti visto le basse dimensioni... così da perdere il meno possibile al momento del ripristino sul 2° server che verrà avviato, che dici ? software alternativi che possano aiutarmi in questa evenienza ? altrimenti mi butterei su nortorn ghost che conosco già bene, anche se non è affidabilissimo a volte :banned:Ah guarda soluzioni sicure al 100% non esistono, ma nemmeno nel mondo dei mainframe da milioni di euro, per cui su questo mettiti pure il cuore in pace :)
Sulla carta tutti sbandierano affidabilità prossima al 100% ma è una pura utopia, e questo per il semplice fatto che qualsiasi sistema, per quanto bello e costoso ha delle criticità e richiede delle finestre temporali di manutenzione.
Il clustering ad es è un accorgimento che ti permette di ridurre queste finestre temporali, poi si può discutere se sia meglio quello Windows (che io reputo pessimo per i motivi che ho descritto) o quello Linux o AIX o Solaris o altro a livello applicativo.
Però è inevitabile che tutto questo sia una complessità maggiore e le complessità vanno gestite.
Se permetti un consiglio, non focalizzarti sull'architettura più sofisticata e che sulla carta fa tutto da sola... non esistono e se ti dicono che esistono allora non funzionano sempre, questa cosa l'ho vissuta più e più volte negli anni.
Focalizzati invece sulla gestione degli imprevisti e sulla manutenzione, è più affidabile un server gestito da qualcuno di competente che sa dove mettere le mani e quando mettercele, piuttosto di un cluster ipersofisticato su cui nessuno sa mettere le mani e che quando non va nessuno sa spiegare cosa è andato storto, perchè e come porvi rimedio (e nel caso dei cluster active/passive questo è quello che succede il 90% delle volte con Windows).
Tornando sul pratico, una soluzione flessibile potrebbe essere quella di utilizzare comunque dello storage di rete (NFS, SMB, iSCSI, scegli il protocollo che preferisci) su cui far stare l'applicazione o comunque da usare come repository per i servizi.
Configurare il primo server per utilizzare questo storage di rete come repository per i servizi, facendo in modo che i servizi in questione stiano in ascolto sull'ip di un alias di rete.
Configurare il secondo server in modo speculare al primo, e verificare che funzioni esattamente allo stesso modo facendoci girare sopra i servizi.
Nella normale operatività usate il primo server (ovviamente con tutti i backup e gli snapshot del caso), in caso di problemi montate lo storage di rete sul secondo server, attivate l'alias di rete sul secondo server e avviate i servizi.
In sostanza si tratterebbe di fare manualmente lo stesso lavoro che fa un cluster active/passive, ovviamente per farlo occorre essere sicuri che i servizi che ci fate girare sopra funzionino correttamente e supportino una cosa del genere.
Salve a tutti mi intrometto anche io in questa imho interessante discussione.
Ma a questo punto, vista la "criticità" del sistema e la necessità di una soluzione hardware indipendent (certo adesso avete de macchine identiche, ma cosa succede se tra X anni si rompe la motherboard?) perchè non valutate la virtualizzazione dell'intero sistema?
Personalmente ho una soluzione proxmox VE che imho è un signor prodotto (della serie, se mi si guasta la macchina, in pochi minuti riavvio l'intero sistema sul secondo nodo [salvo BSOD da parte di win]) e funziona decisamente bene.
Quindi la domanda è: perchè non avete pensato alla virtualizzazione?
actech78
07-01-2013, 16:21
Salve a tutti mi intrometto anche io in questa imho interessante discussione.
Ma a questo punto, vista la "criticità" del sistema e la necessità di una soluzione hardware indipendent (certo adesso avete de macchine identiche, ma cosa succede se tra X anni si rompe la motherboard?) perchè non valutate la virtualizzazione dell'intero sistema?
Personalmente ho una soluzione proxmox VE che imho è un signor prodotto (della serie, se mi si guasta la macchina, in pochi minuti riavvio l'intero sistema sul secondo nodo [salvo BSOD da parte di win]) e funziona decisamente bene.
Quindi la domanda è: perchè non avete pensato alla virtualizzazione?
Purtroppo in questo campo sono un neofita (si è capito!), come funzionerebbe la virtualizzazione ?
Tasslehoff
07-01-2013, 21:27
Purtroppo in questo campo sono un neofita (si è capito!), come funzionerebbe la virtualizzazione ?La logica è simile, solo che anzichè far girare il sistema operativo e i servizi su un server fisico si tratterebbe di farlo girare su un sistema software virtuale che si comporta in tutto e per tutto come uno fisico.
Ciò ovviamente comporta un dispendio di risorse (in genere non eccessivo, poi ovviamente tutto dipende dalla configurazione e dai software utilizzati per implementare l'architettura virtualizzata).
Utilizzando le funzionalità base di virtualizzazione otterresti una condizione simile a quella che avresti usando n server fisici, il vantaggio sarebbe la maggiore flessibilità e nel caso dovessi gestire molte macchine potresti consolidare il tutto su pochi server che agiscano da hypervisor (sostanzialmente i server su cui girano le virtual machines).
Usando funzionalità avanzate di alcuni hypervisor (es vmware esx) potresti implementare una configurazione di fault tolerance virtualizzata, in modo che in caso di mancata risposta del tuo server virtualizzato subentri un "clone" del server stesso aggiornato con gli stessi dati.
Ovviamente tutto questo richiede risorse (licenze nel caso di vmware), hardware ad hoc e deve essere configurato correttamente.
Per carità, la virtualizzazione è sicuramente un'opzione percorribile, però richiederebbe uno sforzo tecnico notevole anche se inferiore rispetto all'implementazione di un cluster Windows.
Usando funzionalità avanzate di alcuni hypervisor (es vmware esx) potresti implementare una configurazione di fault tolerance virtualizzata, in modo che in caso di mancata risposta del tuo server virtualizzato subentri un "clone" del server stesso aggiornato con gli stessi dati.
Ovviamente tutto questo richiede risorse (licenze nel caso di vmware), hardware ad hoc e deve essere configurato correttamente.
Per carità, la virtualizzazione è sicuramente un'opzione percorribile, però richiederebbe uno sforzo tecnico notevole anche se inferiore rispetto all'implementazione di un cluster Windows.
Su questi punti si potrebbe discuterne a lungo :D
Imho questo è proprio uno di quei casi in cui la virtualizzazione è la soluzione al problema.
In primis non si avrebbe più bisogno di tenere due macchine fisiche costantemente sincronizzate: l'immagine della macchina messa su una SAN condivisa permetterebbe pure sistemi di live migration.
Per i costi di licenza posso concordare con il punto VMWARE, però onestamente per questa necessità PROXMOX non ha nulla da invidiare a prodotti più blasonati (ed è pure open source).
Inoltre, in caso di guasto (riparabile o meno) della macchina fisica, la sua sostituzione sarebbe estremamente più rapida che non riconfigurare tutto windows su una nuova, compreso il fatto che non sarebbe più necessaria una macchina gemella (ad esclusione della CPU se si vuole mantenere il discorso live migration).
actech78
10-01-2013, 16:56
Sto valutando tutte le Vs proposte :D
Intanto mi sono soffermato un attimo su una soluzione di mirroring tra i due server a livello software, qualcuno di voi ha mai provato "file replication pro" ?
Sto scaricando la versione free 45 giorni per provarlo, da quello che ho capito fa esattamente la stessa cosa di un failover cluster ma in modo semplicissimo e senza necessità di hardware aggiuntivo, anche se poi alla fine costa quasi 800 euro la licenza (450 per ogni server) ! :muro:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.