Quote:
Originariamente inviato da Paky
capisco
tra prima e dopo io non ho miglioramenti tangibili
anche a livello di bench non ci sono differenze di sostanza
|
Con i file
nuovi e di grande dimensione le differenze con benchmark del genere ci sono solo se il filesystem è
estremamente frammentato e se quindi sarà estremamente frammentato anche lo spazio libero: in questo caso sarà frammentato anche il file temporaneo di test creato e le prestazioni risulteranno inferiori. Diversi mesi fa avevo effettuato test vari, ecco ad esempio con un Samsung 830 128GB in un caso limite:
La storia cambia con i file di dimensione più contenuta memorizzati e frammentati durante l'uso effettivo del sistema. Neanche poi troppi frammenti incidono visibilmente sulla lettura sequenziale dei file. Questo è un altro test che avevo fatto mesi fa:
Da quello che mi ricordo la lettura random e di piccoli blocchi (sempre "sul campo") è afflitta maggiormente da cali prestazionali dovuti alla frammentazione del file system. L'incidenza della frammentazione sulla velocità di lettura dipende per certi versi (che non ho approfondito) anche da quanto si tartassa il file system nel momento della scrittura del file di prova; non ho approfondito a riguardo.
Per concludere ribadisco che la perdita prestazionale sugli SSD dovuta alla frammentazione è tutto sommato
lieve, ma esistente. Non è causata principalmente da motivi fisici come sugli hard disk, ma dal maggiore overhead lato filesystem/OS.