Intel, ecco i Solid State Disk

Intel, ecco i Solid State Disk

In mostra al CES di Las Vegas i primi Solid State Disk a marchio Intel

di pubblicata il , alle 08:59 nel canale Storage
Intel
 
13 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
xeal08 Gennaio 2008, 20:22 #11
Mah, del numero di ore di funzionamento previste non so che farmene... anche perchè la durata non dipende dal tempo di utilizzo, ma dal modo in cui si usano, e nel valutare l'uso medio (=numero medio di scritture per ora, in un certo scenario d'uso quotidiano) possono barare quanto vogliono, come i produttori di automobili nel dichiarare i consumi e le emissioni... Preferei sapere, piuttosto, come funzionano questi algoritmi (che mi convincono poco), dove e come memorizzano o ricostruiscono le informazioni sullo stato delle celle e il loro utilizzo, quindi anche la posizione della tabella di allocazione (dubito che possa esserci un qualche algoritmo "ripetitivo", come quelli dei codici degli antifurto, ma tutto è possibile, solo vorrei conoscere qualche dettaglio), e quanto sono efficienti con le sovrascritture dei file e/o in presenza di frammentazione, in particolare in relazione al livello di occupazione del disco, perchè se l'affidabilità è calcolata ipotizzando la scrittura di dati nuovi, con uno spazio libero sufficiente, e il livellamento consiste nell'utilizzo del disco come una specie di buffer circolare, allora siamo proprio in alto mare... Spero solo che non siano specchietti per le allodole, e che, causa marketing, non finiscano per azzoppare e ritardare troppo tecnologie ben più promettenti, come le Nram o le celle nanoioniche.
.Red.09 Gennaio 2008, 13:23 #12
xeal, di solito le specifiche dichiarate dai produttori sono in un utilizzo intensivo del dispositivo... e cmq, si basano sulla RIscrittura delle celle e non su dati nuovi.

gli SSD come specifiche sono incredibili rispetto ai magnetici... davvero. il problema è il prezzo
xeal09 Gennaio 2008, 20:07 #13
I limiti per le riscritture sono sempre gli stessi: circa 100000 per le SLC, circa 10000 per le MLC; mi pare più che ovvio che un algoritmo software non possa cambiare le caratteristiche intrinseche di un hardware. Qui si parla di algoritmi che cercano di allungare la vita del disco spalmando il più possibile le scritture su tutte le celle (sostanzialmente, quando si deve riscrivere una cella - o meglio, un blocco - si sposta il file/il blocco corrispondente su un altro blocco che è stato sovrascritto un minor numero di volte, quindi si tratta la riscrittura come se fossero dati nuovi da posizionare da qualche parte). Non ricordo di aver letto dichiarazioni relative a "veri" usi intensivi; ricordo invece dichiarazioni che, tralasciando numeroni e andando a leggere tra le righe, lasciano intuire, ad una critica un po' più attenta, come si possa pensare ad un uso medio da parte dell'utenza domestica (per usi professionali esistono da "secoli" chip che sopportano fino a 5000000 di riscritture, e usati per un web server o un database con molti inserimenti durerebbero mooolto ma mooolto meno di un disco meccanico - basta una ricerchina per scoprire che è vero), e come i tanti gb/giorno dichiarati sembrino riferirsi ad una "rotazione ideale" del disco (come un buffer circolare, appunto, ma nei fatti un'unità di storage non sarà mai usata in questo modo, a meno che non la si usi interamente per lo swap della ram, ma credo proprio che come unità di swap non durerebbe a lungo). Del resto, l'efficienza di questi algotritmi nel mantenere costante e uguale il degrado di tutte le celle, dubito fortemente che possa non essere influenzata dall'occupazione del disco (= meno spazio libero -> minore libertà d'azione), dalla presenza di file fissi (entro certi limiti si potrebbero anche spostare, ma entro certi limiti) e dal rapporto tra i file aggiornati spesso e quelli con minori variazioni (che rimarrebbero belli tranquilli su celle "quasi vergini", mentre altre celle si consumerebbero velocemente: si può anche pensare di spostare tutto in modo da bilanciare sempre lo stato di ogni blocco di celle, ma una strategia di questo tipo sarebbe equivalente ad una deframmentazione costante del dispositivo, e le prestazioni andrebbero a putt...).

Poi, capiamoci, io non contesto le "incredibili specifiche" di un ssd, se parliamo di prestazioni, e ti dirò di più: se fossero usati come una specie di memoria read only, con le celle riscritte con gli stessi dati ogni tot anni, manterrebbero i dati inalterati praticamente in eterno! Ma per un uso intensivo (e sarei felicissimo se qualcuno mi smentisse con argomentazioni incontrovertibili e dati tecnici precisi) dubito fortissimamente che potranno mai essere, se basati su nand flash, più affidabili di uno storage magnetico, perchè una cella "morta" è una cella con dati persi irrimediabilmente, mentre un con un disco rotto c'è la speranza che il problema riguardi solo la meccanica e non i dati, ed è possibile estrarne i piatti e inserirli in una meccanica funzionante per recuperare i dati (può essere costoso, può essere un'operazione non banale, ma è comunque un'operazione POSSIBILE, mentre recuperare i dati da un chip di flash morto è impossibile). Inoltre, collegando più hard disk (scelti bene) in una catena raid 1 l'affidabilità complessiva cresce, mentre facendo la stessa cosa con dispositivi di memoria flash non cambia di una virgola. Spero che le PMC (le nanoioniche) mantengano tutte le promesse (in particolare, i costi 10 volte inferiori e l'uso di materiali e macchinari simili), così nel giro di un paio d'anni avremo degli ssd velocissimi, a prezzi umani, moolto affidabili e (cosa che non guasta) con consumi ancora inferiori (fino a mille volte!!!)

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^