Quote:
Originariamente inviato da Masamune
su un'infrastruttura fatta con un minimo di criterio hai affidabilità ed efficienza veramente alti.
utilizzando server "veri" i malfunzionamenti hw sono limitati e praticamente risolvibili a macchina accesa. praticamente devi spengere tutto solo se si scassano procio o mobo.
in più le macchine virtualizzate sono molto semplici da backuppare e, visto che sono indipendenti dall HW dell'host, possono essere ripristinate in un men che non si dica.
è chiaro che tutto ha un suo costo. l'hw deve essere di un certo livello se ci girano applicazioni mission critical. ma va anche detto che una bella infrastruttura solida, fatti due conti potrebbe costare molto meno di una un po' scamuffa ma con molti server che frullano.
un server decente costa circa 2500 euro (e forse manco bastano). con 50.000 euro ho preso tutto l'hw necessario per poter consolidare i 20 server equiparabili al costo. consumo di meno, e utilizzo un rack solo.
anche statisticamente, con un numero limitato di computer, avrò di sicuro meno guasti hw.
|
Ma quelli che avrai saranno più critici

Ovviamente si possono clusterizzare i server dove girano le virtual machine però secondo me rimangono dei point of failure importanti.
Poi ovviamente sappiamo tutti che ci sono un sacco di server che stanno per il 90% del loro tempo in idle e per i quali basterebbero architetture e hw molto meno performanti...
Però a questo punto direi di lasciar perdere perchè entriamo nel girone dantesco delle analisi architetturali. Non so voi ma io in più di 10 anni di lavoro presso clienti più e meno grandi, da una parte non ho ancora visto una persona che sappia pianificare una architettura ben bilanciata, dall'altra non ho ancora visto un cliente che non pretenda uno stravolgimento applicativo totale all'ultimo momento che tipicamente crea caos e fa degenerare l'architettura