View Full Version : Sandisk ExtremeFFS cambia il metodo di gestione della memoria flash
Redazione di Hardware Upg
06-11-2008, 08:08
Link alla notizia: http://www.hwupgrade.it/news/storage/sandisk-extremeffs-cambia-il-metodo-di-gestione-della-memoria-flash_27070.html
presentato un nuovo metodo di gestione della memoria per SSD, in grado, secondo il produttore, di migliorare prestazioni e affidabilità
Click sul link per visualizzare la notizia.
Eraser|85
06-11-2008, 08:32
inizieremo a vedere SSD da 30.000 vRPM? :D
letto l'articolo fonte... hanno velocizzato fino a 100 volte le scritture "random" con un processo che a primo occhio sembra garantire la framentazione incontrollata dei files
Human_Sorrow
06-11-2008, 09:28
se la "la framentazione incontrollata dei files" aumenta di 100 volte le scritture ben venga, infondo gli SSD hanno già velocità di lettura molto alte, se si perde qualcosa in lettura ma si guadagna tanto in scrittura (che è più lenta) la vedo come una cosa positiva.
Preferisco un SSD che ha 130MB/s in lettura e 110 in scrittura piuttosto che uno che ha 150 in lettura e 60 in scrittura ...
ciao
Concordo sul fatto che siano uscite periferiche SSD un po' di tutte le qualità abbassando notevolmente le aspettative del mercato.
finalmente si avrà un metodo di riferimento per testare questi ssd e speriamo che diventa un test standard così si avranno risultati finelmente comparabili...
letto l'articolo fonte... hanno velocizzato fino a 100 volte le scritture "random" con un processo che a primo occhio sembra garantire la framentazione incontrollata dei files
sbaglio o nel caso degli SSD la frammentazione non peggiora le performance di lettura?
mi sembra che la velocità di lettura di una cella sia indipendente dalla sua posizione, non essendoci una parte meccanica che si sposta sulla cella da leggere.
sbaglio o nel caso degli SSD la frammentazione non peggiora le performance di lettura?
mi sembra che la velocità di lettura di una cella sia indipendente dalla sua posizione, non essendoci una parte meccanica che si sposta sulla cella da leggere.
teoricamente una ssd frammentata e una con tutti i file continui dovrebbero avere le stesse performance
ma generalmente i controller tendono a caricare nel buffer oltre alla cella richiesta anche le successive (una solta di predizione di utilizzo) quindi in definitiva dovrebbe andare di meno
+Benito+
06-11-2008, 13:01
infatti, il problema grave degli SSD soo i controller che sono rimasti clamorosamente indietro.
Se i blocchi da leggere sono tutti sullo stesso modulo, giocoforza la lettura avrà la velocità massima di un solo modulo. Se invece i blocchi dei files sono distribuiti in moduli differenti, c'è la possibilità teorica, se il controller è sufficientemente evoluto, di leggerli in parallelo.
SwatMaster
06-11-2008, 14:23
grazie anche ad un inevitabile calo di prezzo
Era questo, che ci interessava. :ciapet:
bLaCkMeTaL
06-11-2008, 14:28
beh, in effetti ci voleva un po d'ordine...solo che ora spunteranno SSD da migliaia di vRPM!!
Concordo anch'io con l'esigenza di aumentare la velocità in scrittura, ma di affidabilità se ne è parlato o è ancora silenzio?
l.fugaro
06-11-2008, 17:20
Scusate ma in teoria la frammentazione non dovrebbe esistere negli SSD!!! O sbaglio?
Mah, questi vRpm non mi convincono piu` di tanto; alla fine la velocita` di rotazione dei piatti di un hard disk tradizionale e` solo una delle componenti, seppur importante, che formano un elevato transfer rate, tanto e` vero che molti hard disk moderni da 7200 giri, seppur deficitando in latenza al confronto, possono competere con quelli da 10000 giri di alcuni anni fa.
Scusate ma in teoria la frammentazione non dovrebbe esistere negli SSD!!! O sbaglio?
Esistere esiste, in quanto non è detto che un file sia memorizzato in blocchi contingui, c'è da vedere in che misura influisce sulle prestazioni.
maumau138
06-11-2008, 20:06
Teoricamente la frammentazione dei file su un'unità SSD non dovrebbe creare problemi; la frammentazione crea problemi dovuti al tempo che la testina ci impiega nel cambiare la sua posizione da un blocco di dati ad un altro situati da un'altra parte del piatto. Nel momento in cui sparisce la testina la frammentazione non dovrebbe essere più un problema, anzi potrebbe essere addirittura un vantaggio come diceva prima bjt2. Con l'algoritmo che hanno implementato poi potrebbe essere ancora meglio in quanto il controller saprebbe già quali frammenti caricare nella memoria cache sin dalla chiamata del primo frammento di file.
Teoricamente la frammentazione dei file su un'unità SSD non dovrebbe creare problemi; la frammentazione crea problemi dovuti al tempo che la testina ci impiega nel cambiare la sua posizione da un blocco di dati ad un altro situati da un'altra parte del piatto. Nel momento in cui sparisce la testina la frammentazione non dovrebbe essere più un problema, anzi potrebbe essere addirittura un vantaggio come diceva prima bjt2. Con l'algoritmo che hanno implementato poi potrebbe essere ancora meglio in quanto il controller saprebbe già quali frammenti caricare nella memoria cache sin dalla chiamata del primo frammento di file.
Ma l'interleaving dei moduli sarà già usato. E' la cosa più ovvia da fare, tanto che si fa anche con i banchi di memoria dual channel (e mi chiedo come farà il nehalem che ne ha 3 di canali...). Blocchi contigui a livello logico sono in realtà alternati sui moduli. Così se un file è contiguo e quindi deframmentato e se il controller è sufficientemente evoluto da leggere tutti i moduli in parallelo, la deframmentazione aumenta leggermente le prestazioni anche sugli SSD. Perchè? Il caso peggiore è che i blocchi sono sparsi in modo da essere tutti sullo stesso modulo (molto improbabile, ma comunque possibile) e quindi si può avere al max N MB/s di banda in lettura. Se il file è perfettamente deframmentato, siccome si userà sicuramente l'interleaving dei moduli, se il controllore è evoluto, li legge tutti in parallelo, con una banda di m*N MB/s, se m sono il numero di chip o moduli in parallelo.
Una sorta di "striping", quindi...
blackshard
07-11-2008, 00:28
Una sorta di "striping", quindi...
In parole povere si, ma non è corretto dire striping, perchè lo striping è il sinonimo di RAID 0.
Queste sono memorie, quindi si parla di bank interleaving oppure in italiano di memoria interfogliata (:) )
Comunque non c'è niente di nuovo sotto il sole, nel senso che tutte le tecniche per aumentare la velocità di recupero dei dati esistono da quando esiste l'informatica, visto che una memoria flash non differisce poi tanto da una memoria ram da questo punto di vista.
Quello che bisognerebbe fare a livello logico è avere un buffer di riordino dove le richieste vengono collezionate e poi ordinate in burst dove ogni burst contiene accessi a blocchi fisici tutti diversi. E poi i file sequenziali vanno distribuiti in modo frammentato, magari ogni 64kb del file si salta al blocco fisico successivo. Bisogna però valutare poi un ordinamento del genere cosa comporta nella tabella dei contenuti... insomma è una bella gatta da pelare!
Oppure si può usare un algoritmo di hashing.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.