View Single Post
Old 30-07-2016, 10:23   #12
zeMMeMMe
Bannato
 
Iscritto dal: Jun 2013
Messaggi: 133
Quote:
Originariamente inviato da nanotek Guarda i messaggi
Zfs richiede 1Gb di ram per ogni Tb di dati nel datastore.
Preciso che quella è la richiesta (alla grossa) per la deduplicazione.
Funziona tranquillamente con 2-4-8GB.
L'elemento-chiave è l'uso efficiente della cache, cui viene destinata praticamente tutta la memoria libera.

La deduplicazione non è un granchè utile, se non in casi particolari, e può comunque essere attivata selettivamente su dataset (non su pool interi)

Codice:
Mem: 2208K Active, 474M Inact, 60G Wired, 80K Cache, 102M Buf, 1877M Free
ARC: 57G Total, 48G MFU, 8598M MRU, 162K Anon, 295M Header, 734M Other
Swap: 4096M Total, 4096M Free
In questo esempio, preso or ora da un server freebsd virtualizzato, vedi l'occupazione di memoria modesta del sistema.

Riguardo alle memorie ECC, che dovrebbe avere e che sono in generale cosa buona e giusta, non sono necessarie per zfs (nonostante quanto affermino sul forum freebsd), proprio per il mantenimento costante degli hash di tutte le strutture.
Ovviamente è inutile ribadire che è meglio ECC.
Anzi in certi casi (vedi server Dell) è possibile utilizzare addirittura una sorta di "raid-1" per le RAM, proprio per ridurre i rischi di errori di questo tipo.
Francamente mi è capitato di farlo in produzione solo una volta

Ultima modifica di zeMMeMMe : 30-07-2016 alle 10:26.
zeMMeMMe è offline   Rispondi citando il messaggio o parte di esso