View Single Post
Old 08-04-2016, 11:24   #11041
s12a
Senior Member
 
L'Avatar di s12a
 
Iscritto dal: Jan 2008
Messaggi: 11122
Quote:
Originariamente inviato da conan_75 Guarda i messaggi
Cosa è stato spiegato?
Che la frammentazione del file system ha comunque influenza a livello OS sulle prestazioni, anche se non c'è corrispondenza fra come i dati sono ordinati in esso come come lo sono di fatto nelle celle di memoria NAND.

Il motivo è che ci vuole un nuovo comando di I/O per ogni settore (o gruppi di settori) non contiguo letto o scritto. Le conseguenze di questo sono facili da immaginare nel caso di file estremamente frammentati.

Nel caso peggiore (100% frammentazione, nessun settore contiguo) la velocità di lettura sequenziale diventa pari a quella che si avrebbe in random con blocchi della stessa dimensione.


Quote:
Tra garbage collection e algoritmi proprietari non penserete mica alla disposizione dei dati in stile hard disk?
Il disco ssd alloca in base all'usura delle celle, a quelle "trimmate" etc.
Tu dopo il defrag puoi vedere i dati vicini nel grafico ma in realtà il controller gli ha disposti a "pera" (che poi non è casuale ma detetminata da algoritmi complessi).
Inoltre se lasci il pc in standby il controller lavora e sposta in continuazione i dati anche in base alla permanenza sulla cella.
Questo non c'entra nulla con quanto ho scritto in precedenza.

Quote:
Tutto questo oltre al fatto che la deframmentazione nasce per evitare il seek time della testina e basta, testina non presente sugli ssd.
Non solo. Una maggiore frammentazione dei file causa maggiore overhead sul sistema operativo durante le operazioni di I/O e sul file system. Esiste anche un numero di frammenti limite oltre al quale iniziano ad insorgere problemi (es. il sistema operativo che lancia avvisi di spazio insufficiente quando ce ne sarebbe in abbondanza, e così via).

Quote:
Di certa una cosa c'è: deframmentare causa un considerevole utilizzo delle celle in scrittura.
Dipende dalla frammentazione dei file e dagli algoritmi utilizzati. Fra le altre cose, io ho notato che l'operazione di deframmentazione con il tool di Windows ha una write amplification molto bassa (molto vicina ad 1x) dato che i dati vengono riscritti sequenzialmente a grandi blocchi.

Quote:
Pensate che i s.o. e i produttori siano stupidi per disabilitare la deframmentazione?
Windows, almeno da 8 in poi, non disabilita completeamente la deframmentazione, continua ad eseguirla ogni tanto per i motivi che ho evidenziato.
I produttori come Samsung (con i tool come Magician) semplicemente si approfittano delle credenze popolari.

Quote:
Convincetemi con qualcosa di scientifico e tecnico...
Se dopo aver postato motivi e metodologia non sei convinto, non so come poterti convincere. Potrei però consigliare questa lettura non tecnica sullo stesso "problema": http://www.hanselman.com/blog/TheRea...ntYourSSD.aspx

Per finire, ecco un test che ho appena effettuato su un file da 25MB circa in lettura sequenziale con blocchi da 4 kB prima con 1 frammento e poi con il 100% di frammentazione (mediante un programma apposito).

La velocità in lettura sequenziale con blocchi da 4 kB è diventata praticamente pari a quella in random, da un test con AS SSD effettuato tempo fa sul mio drive:





__________________
CPU Intel i7-12700K ~ Cooler Noctua NH-D15S ~ Motherboard MSI PRO Z690-A WIFI DDR4 ~ RAM Corsair Vengeance LPX 64 GB DDR4-3600
GPU MSI GeForce RTX 3090 GAMING X TRIO 24G ~ SSD SK hynix Platinum P41 2TB + Samsung 990 Pro 4TB
PSU Corsair RM850x ~ Case Fractal Design Define C ~ Display Dell U2412M (A00) + NEC EA231WMi ~ OS

Ultima modifica di s12a : 08-04-2016 alle 11:32.
s12a è offline   Rispondi citando il messaggio o parte di esso