Quote:
Originariamente inviato da conan_75
Cosa è stato spiegato?
|
Che la frammentazione del file system ha comunque influenza a livello OS sulle prestazioni, anche se non c'è corrispondenza fra come i dati sono ordinati in esso come come lo sono di fatto nelle celle di memoria NAND.
Il motivo è che ci vuole un nuovo comando di I/O per ogni settore (o gruppi di settori) non contiguo letto o scritto. Le conseguenze di questo sono facili da immaginare nel caso di file estremamente frammentati.
Nel caso peggiore (100% frammentazione, nessun settore contiguo) la velocità di lettura sequenziale diventa pari a quella che si avrebbe in random con blocchi della stessa dimensione.
Quote:
Tra garbage collection e algoritmi proprietari non penserete mica alla disposizione dei dati in stile hard disk?
Il disco ssd alloca in base all'usura delle celle, a quelle "trimmate" etc.
Tu dopo il defrag puoi vedere i dati vicini nel grafico ma in realtà il controller gli ha disposti a "pera" (che poi non è casuale ma detetminata da algoritmi complessi).
Inoltre se lasci il pc in standby il controller lavora e sposta in continuazione i dati anche in base alla permanenza sulla cella.
|
Questo non c'entra nulla con quanto ho scritto in precedenza.
Quote:
Tutto questo oltre al fatto che la deframmentazione nasce per evitare il seek time della testina e basta, testina non presente sugli ssd.
|
Non solo. Una maggiore frammentazione dei file causa maggiore overhead sul sistema operativo durante le operazioni di I/O e sul file system. Esiste anche un numero di frammenti limite oltre al quale iniziano ad insorgere problemi (es. il sistema operativo che lancia avvisi di spazio insufficiente quando ce ne sarebbe in abbondanza, e così via).
Quote:
Di certa una cosa c'è: deframmentare causa un considerevole utilizzo delle celle in scrittura.
|
Dipende dalla frammentazione dei file e dagli algoritmi utilizzati. Fra le altre cose, io ho notato che l'operazione di deframmentazione con il tool di Windows ha una write amplification molto bassa (molto vicina ad 1x) dato che i dati vengono riscritti sequenzialmente a grandi blocchi.
Quote:
Pensate che i s.o. e i produttori siano stupidi per disabilitare la deframmentazione?
|
Windows, almeno da 8 in poi, non disabilita completeamente la deframmentazione, continua ad eseguirla ogni tanto per i motivi che ho evidenziato.
I produttori come Samsung (con i tool come Magician) semplicemente si approfittano delle credenze popolari.
Quote:
Convincetemi con qualcosa di scientifico e tecnico...
|
Se dopo aver postato motivi e metodologia non sei convinto, non so come poterti convincere. Potrei però consigliare questa lettura non tecnica sullo stesso "problema":
http://www.hanselman.com/blog/TheRea...ntYourSSD.aspx
Per finire, ecco un test che ho appena effettuato su un file da 25MB circa in lettura
sequenziale con blocchi da 4 kB prima con 1 frammento e poi con il 100% di frammentazione (mediante un programma apposito).
La velocità in lettura
sequenziale con blocchi da 4 kB è diventata praticamente pari a quella in
random, da un test con AS SSD effettuato tempo fa sul mio drive: