Quote:
Originariamente inviato da diaretto
Le reti si sottodimensionano, si fa cosi perché sennò non si rientra coi costi. L'hanno detto più volte anche gli insiders.
Le ONU per ora sono o a 48 porte o a 192, fai tu.
|
Verissimo. Alla fine è sempre una questione di costi.
Volendo approfondire un po' il discorso e comprendere anche quantitativamente di
quanto è sottodimensionata una risorsa comune rispetto al renderla disponibile al 100% della sua potenzialità, per il 100% dell'utenza per il 100% del tempo, è necessario ragionare sulla statistica di utilizzo.
Intanto va detto che qualsiasi risorsa comune si dimensiona facendo ricorso alla statistica. Un tubo dell'acqua che alimenta un condominio non è dimensionato per fornire a
tutti i condomini la
massima portata
contemporaneamente. Un elettrodotto non è dimensionato per erogare la massima potenza a tutte le utenze contemporaneamente. L'autostrada del sole non è dimensionata per permettere a tutti gli italiani di percorrerla contemporaneamente... e via discorrendo. E in effetti esitono gli ingorghi, i blackout, i cali di pressione.
Ovviamente, secondo il tipo di fornitura, varranno regole diverse che dipendono dalle statistiche di utilizzo, e anche secondo regole di sicurezza (che rendono più stringenti le specifiche tanto più è grave il rischio che si corre nel rilassarle).
Per tornare alla nostra fibra, il ragionamento:
- la ONU ha 192 porte
- ad ogni utente fornisco al massimo 100Mbit/s
- il picco di utilizzo di conseguenza è 19.2Gbit/s
- se fornisco un link a 1Gbit/s sto dunque sottodimensionando di 19.2 volte il servizio
non è del tutto corretto, perché questo ragionamento si basa sul picco di utilizzo puro.
La domanda che bisogna porsi è: "Che probabilità c'è che 192 utenti chiedano di scaricare a 100Mbit/s contemporaneamente?". Anzi, la domanda corretta sarebbe: "che probabilità c'è che 2 utenti chiedano 100Mbit/s contemporaneamente... che 3 utenti chiedano 100Mbit/s contemporaneamente... che 4 utenti chiedano...." etc etc. Da questo deriva una curva di statistiche di utilizzo, che tra l'altro cambia in funzione dell'ora e del giorno dell'anno.
Una volta stabilito che, ad esempio, il picco massimo di probabilità di richiesta avviene alle ore 20 del 20 dicembre (faccio per dire eh!) e vale l'
1% per 10 utenti (
ossia che esiste solo l'1% di probabilità che ben 10 utenti contemporaneamente vogliano scaricare a 100Mbit/s), lo 0.1% per 100 utenti e lo 0.02% per 192 utenti (invento, sia chiaro), allora potrò dire che con un link da 1Gbit/s ho il
99% di probabilità di soddisfare completamente le richieste nel caso pessimo delle ore 20 del 20 dicembre, e che corro un rischio dello 0.1% di fornire solo un decimo della richiesta (solo 10Mbit/s a 100 utenti contemporanei alle ore 20 del 20 dicembre).
È sulla base di considerazioni come queste e del prezzo a cui si vuole fornire il servizio che si stabilisce come dimensionare le risorse.
E c'è anche da dire che
noi tutti vorremmo avere sempre il servizio a costi
irrisori... o no!?

Si, lo so che ora qualcuno dirà che pagherebbe anche di più per avere di più... ma è una questione di statistica pure quella, no?
Vabbé,
probabilmente questo tipo di ragionamenti non interesserà più dell'1% del forum. Ok... correrò il rischio