Quote:
Originariamente inviato da coschizza
In un decennio non ho mai visto il mio data center raggiungere un picco del 100% avrebbe voluto dire che era tarato male. Non funziona come dici tu un sistema deve funzionare in un range più ampio di risorse libere per dare un servizio se raggiungi il 100% vuol dire che stai dando disservizio su qualche server.
Ora per esempio il mio data center usa circa il 30% delle cpu come media giornaliera. E parliamo di una struttura da migliaia di utenti e centinaia di server che devo gestire con questo hardware e relativi aumenti di bisogno per i prossimi 6 anni.
I server non si aggiungono a piacimento devi tarare il tutto in mesi di studio, non ti inventi la connettività di rete dello storiage e le licenze , backup come vuoi, aggiungere un server vuol dire rivedere tutta la struttura e tutte le licenze usate, gare da fare capitolati che vuol dire mesi e mesi di lavoro. Ora per esempio sto aggiornando lo storage e mi ha portato via 6 mesi di pianificazione e almeno 3 mesi per la messa in opera.
|
Quando hai un picco del 100%non stai dando nessun disservizio, anzi proprio il picco ti segnala che sei entro le specifiche. Il disservizio lo puoi trovare ( e non è detto che ci sia) con carichi prolungati al 100%.
Io non vado a controllare il carico se prima non controllo le richieste esaudite, e se queste non scendono durante il picco sono ancora relativamente tranquillo.
Certo che se nel periodo di punta il sistema sta sempre al 95% con frequenti picchi al 100% e poi per 20h sta al 40% non faccio la media, ma non serve un genio a capire che il sistema è in affanno e deve essere ampliato/aggiornato.
PS, ma certo che non si mette su un datacenter come aggiungere RAM ad un PC, ma le condizioni possono variare nel tempo ed essere costretti a ampliare-migrare servizi che prima erano marginali