Sandisk ExtremeFFS cambia il metodo di gestione della memoria flash

Sandisk ExtremeFFS cambia il metodo di gestione della memoria flash

presentato un nuovo metodo di gestione della memoria per SSD, in grado, secondo il produttore, di migliorare prestazioni e affidabilità

di pubblicata il , alle 09:08 nel canale Storage
Sandisk
 

È stato Rich Heye, senior vice president e general manager della Solid-state drive business unit di Sandisk, a parlare per primo, nel corso del WinHEC 2008, di ExtremeFss, il nuovo sistema di gestione della memoria in grado di migliorare performance e affidabilità delle unità a stato solido.

La nuova tecnologia si basa su di un algoritmo page-based, che non associa alla locazione fisica quella logica: in questo modo, i dati scritti, vengono posizionati làddove risultano essere più comodi da raggiungere, migliorando, di fatto, l'efficienza dell'unità SSD. L'architettura su cui si basa la nuova tecnologia è di tipo non-blocking, consentendo così ai moduli flash di operare in modo completamente indipendente e ottimizzando le sessioni di scrittura e cancellazione anche se eseguite contemporaneamente. ExtremeFFS è in grado inoltre di "apprendere" le abitudini dell'utente, ottimizzando così la localizzazione dei file all'interno della memoria, un po' come la tecnologia prefetch che troviamo in Windows. “Questa caratteristica potrebbe non mostrarsi nei benchmark, ma crediamo che sia la cosa migliore da fare per i consumatori finali” ha dichiarato Heye.

Nel corso della presentazione Heye ha inoltre introdotto vRPM (Virtual Revolution per minutes) e LDE (Long-Term data endurance), rispettivamente, un nuovo metro di riferimento per valutare le performance degli SSD, rendendo così più semplice la comparazione tra memorie statiche e hard disk tradizionali e uno strumento in grado di memorizzare il numero di dati scritti e memorizzati su ogni singola cella, ottimizzando così l'utilizzo di tutto lo spazio dell'SSD a rotazione.

Joseph Unsworth, research director di Gartner, parlando di vRPM ha dichiarato: "C’è stata una inondazione di prodotti SSD con diversi livelli di qualità che hanno creato inutili aspettative e grande confusione sia nei consumatori sia nelle aziende. Il mercato si basa su comuni metodi di valutazione che possono articolare in modo chiaro il valore di una memoria SSD. Simili basi strumentali sono l’ideale nel guidare la comprensione degli utenti finali e facilitano la conseguente adozione di tali prodotti, grazie anche ad un inevitabile calo di prezzo”

Resta aggiornato sulle ultime offerte

Ricevi comodamente via email le segnalazioni della redazione di Hardware Upgrade sui prodotti tecnologici in offerta più interessanti per te

Quando invii il modulo, controlla la tua inbox per confermare l'iscrizione

18 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
Eraser|8506 Novembre 2008, 09:32 #1
inizieremo a vedere SSD da 30.000 vRPM?
Cionno06 Novembre 2008, 10:03 #2
letto l'articolo fonte... hanno velocizzato fino a 100 volte le scritture "random" con un processo che a primo occhio sembra garantire la framentazione incontrollata dei files
Human_Sorrow06 Novembre 2008, 10:28 #3
se la "la framentazione incontrollata dei files" aumenta di 100 volte le scritture ben venga, infondo gli SSD hanno già velocità di lettura molto alte, se si perde qualcosa in lettura ma si guadagna tanto in scrittura (che è più lenta) la vedo come una cosa positiva.

Preferisco un SSD che ha 130MB/s in lettura e 110 in scrittura piuttosto che uno che ha 150 in lettura e 60 in scrittura ...


ciao
Pashark06 Novembre 2008, 10:44 #4
Concordo sul fatto che siano uscite periferiche SSD un po' di tutte le qualità abbassando notevolmente le aspettative del mercato.
za8706 Novembre 2008, 10:45 #5
finalmente si avrà un metodo di riferimento per testare questi ssd e speriamo che diventa un test standard così si avranno risultati finelmente comparabili...
SofC06 Novembre 2008, 10:46 #6
Originariamente inviato da: Cionno
letto l'articolo fonte... hanno velocizzato fino a 100 volte le scritture "random" con un processo che a primo occhio sembra garantire la framentazione incontrollata dei files


sbaglio o nel caso degli SSD la frammentazione non peggiora le performance di lettura?
mi sembra che la velocità di lettura di una cella sia indipendente dalla sua posizione, non essendoci una parte meccanica che si sposta sulla cella da leggere.
!fazz06 Novembre 2008, 12:33 #7
Originariamente inviato da: SofC
sbaglio o nel caso degli SSD la frammentazione non peggiora le performance di lettura?
mi sembra che la velocità di lettura di una cella sia indipendente dalla sua posizione, non essendoci una parte meccanica che si sposta sulla cella da leggere.


teoricamente una ssd frammentata e una con tutti i file continui dovrebbero avere le stesse performance
ma generalmente i controller tendono a caricare nel buffer oltre alla cella richiesta anche le successive (una solta di predizione di utilizzo) quindi in definitiva dovrebbe andare di meno
+Benito+06 Novembre 2008, 14:01 #8
infatti, il problema grave degli SSD soo i controller che sono rimasti clamorosamente indietro.
bjt206 Novembre 2008, 14:01 #9
Se i blocchi da leggere sono tutti sullo stesso modulo, giocoforza la lettura avrà la velocità massima di un solo modulo. Se invece i blocchi dei files sono distribuiti in moduli differenti, c'è la possibilità teorica, se il controller è sufficientemente evoluto, di leggerli in parallelo.
SwatMaster06 Novembre 2008, 15:23 #10
grazie anche ad un inevitabile calo di prezzo


Era questo, che ci interessava.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^