View Full Version : Intel, ecco i Solid State Disk
Redazione di Hardware Upg
08-01-2008, 08:59
Link alla notizia: http://www.hwupgrade.it/news/storage/23785.html
In mostra al CES di Las Vegas i primi Solid State Disk a marchio Intel
Click sul link per visualizzare la notizia.
Paganetor
08-01-2008, 09:01
diciamo che sono ai livelli ci una compact flash di ultima generazione...
comunque si tratta di sviluppi interessanti: i singoli chip possono essere sfruttati per diverse finalità, come appunto i "classici" dischi per computer o per i sistemi embedded...
SuperSandro
08-01-2008, 09:03
...Non resta che attendere maggiori informazioni direttamente da Intel...
Non resta che attendere i test di affidabilità: che succede dopo un milione / un miliardo di letture /scritture (ma soprattutto scritture)?
.
Alessandro Bordin
08-01-2008, 09:09
...Non resta che attendere maggiori informazioni direttamente da Intel...
Non resta che attendere i test di affidabilità: che succede dopo un milione / un miliardo di letture /scritture (ma soprattutto scritture)?
.
I nuovi chip infatti utilizzano la tecnologia Wear Levelling, che permette di sfruttare alcuni algoritmi che garantiscono di utilizzare tutte le celle memoria lo stesso numero di volte. Non vi saranno più quindi celle memoria ultra-utilizzate e altre praticamente inutilizzate, massimizzando così la vita media dell'intero chip.
Intel, ma anche altri che usano tecnologie identiche o simili, dichiarano un MTBF di 2,5 milioni di ore, ovvero circa 280 anni. Dividi anche per 10 per sicurezza.. direi che crollano prima tutte le altre parti del PC :P
Scusate se non rispondo ulteriormente, ma sono dall'altra parte del mondo e adesso vado a dormire. Domani rispondo nei limiti del possibile ad eventuali, ulteriori dubbi.
Paganetor
08-01-2008, 09:14
Scusate se non rispondo ulteriormente, ma sono dall'altra parte del mondo e adesso vado a dormire. Domani rispondo nei limiti del possibile ad eventuali, ulteriori dubbi.
lavativo! :O :p
ciao Ale! :D
PS: ho letto che anche Sandisk ha messo in commercio i suoi SSD (http://www.sandisk.com/Corporate/PressRoom/PressReleases/PressRelease.aspx?ID=4067)... facci sapere qualcosa ;)
Se il transfer rate del singolo chip è sui 40 MB/s mi sa che si potranno raggiungere velocità mostruose con 16 chip (64 GB).
Paganetor
08-01-2008, 09:46
Se il transfer rate del singolo chip è sui 40 MB/s mi sa che si potranno raggiungere velocità mostruose con 16 chip (64 GB).
sempre che si possano montare "in parallelo" (tipo raid)...
Lo sapevo che questo CES segnava la presentazione di un pò di SSD, dai dai, producete, producete che più ne escono fuori più si abbassano i prezzi :sperem:
sempre che si possano montare "in parallelo" (tipo raid)...
Sono chip di memoria si possono sempre montare in parallelo.
Il modo più semplice è andare a scrivere un bit su ogni chip...ovviamente non si può con questi tipi di chip, perché credo che lavorino a pacchetti di una certa dimensione.
Si tratta quindi di andare a spalmare i blocchi di byte ricevuti su tutti i chip.
Basta metterci una memoria ram (per definizione più veloce dei chip) davanti che fa da buffer (c'è anche sui normali dischi) per poter lavorare su un numero di blocchi multiplo del numero di chip.
In base all'indirizzamento logico del disco si fa una traduzione in modo che blocchi successivi nell'indirizzamento logico corrispondano a chip diversi.
Questo comportamento è anche avvantaggiato dal fatto che i livelli di caching del sistema operativo funzionano quasi esclusivamente in burst.
I nuovi chip infatti utilizzano la tecnologia Wear Levelling, che permette di sfruttare alcuni algoritmi che garantiscono di utilizzare tutte le celle memoria lo stesso numero di volte. Non vi saranno più quindi celle memoria ultra-utilizzate e altre praticamente inutilizzate, massimizzando così la vita media dell'intero chip.
Intel, ma anche altri che usano tecnologie identiche o simili, dichiarano un MTBF di 2,5 milioni di ore, ovvero circa 280 anni. Dividi anche per 10 per sicurezza.. direi che crollano prima tutte le altre parti del PC :P
Scusate se non rispondo ulteriormente, ma sono dall'altra parte del mondo e adesso vado a dormire. Domani rispondo nei limiti del possibile ad eventuali, ulteriori dubbi.
Grande Ale! buona notte allora :D!
pistolino
08-01-2008, 17:26
Lo sapevo che questo CES segnava la presentazione di un pò di SSD, dai dai, producete, producete che più ne escono fuori più si abbassano i prezzi :sperem:
Esattamente...al posto degli inutili formati HD-DVD e Blu Ray preferirei vedere in giro un bel po' di SSD a prezzi decenti per mandare finalmente al macero gli hard disk meccanici. :cool:
Regards
Mah, del numero di ore di funzionamento previste non so che farmene... anche perchè la durata non dipende dal tempo di utilizzo, ma dal modo in cui si usano, e nel valutare l'uso medio (=numero medio di scritture per ora, in un certo scenario d'uso quotidiano) possono barare quanto vogliono, come i produttori di automobili nel dichiarare i consumi e le emissioni... Preferei sapere, piuttosto, come funzionano questi algoritmi (che mi convincono poco), dove e come memorizzano o ricostruiscono le informazioni sullo stato delle celle e il loro utilizzo, quindi anche la posizione della tabella di allocazione (dubito che possa esserci un qualche algoritmo "ripetitivo", come quelli dei codici degli antifurto, ma tutto è possibile, solo vorrei conoscere qualche dettaglio), e quanto sono efficienti con le sovrascritture dei file e/o in presenza di frammentazione, in particolare in relazione al livello di occupazione del disco, perchè se l'affidabilità è calcolata ipotizzando la scrittura di dati nuovi, con uno spazio libero sufficiente, e il livellamento consiste nell'utilizzo del disco come una specie di buffer circolare, allora siamo proprio in alto mare... Spero solo che non siano specchietti per le allodole, e che, causa marketing, non finiscano per azzoppare e ritardare troppo tecnologie ben più promettenti, come le Nram o le celle nanoioniche.
xeal, di solito le specifiche dichiarate dai produttori sono in un utilizzo intensivo del dispositivo... e cmq, si basano sulla RIscrittura delle celle e non su dati nuovi.
gli SSD come specifiche sono incredibili rispetto ai magnetici... davvero. il problema è il prezzo
I limiti per le riscritture sono sempre gli stessi: circa 100000 per le SLC, circa 10000 per le MLC; mi pare più che ovvio che un algoritmo software non possa cambiare le caratteristiche intrinseche di un hardware. Qui si parla di algoritmi che cercano di allungare la vita del disco spalmando il più possibile le scritture su tutte le celle (sostanzialmente, quando si deve riscrivere una cella - o meglio, un blocco - si sposta il file/il blocco corrispondente su un altro blocco che è stato sovrascritto un minor numero di volte, quindi si tratta la riscrittura come se fossero dati nuovi da posizionare da qualche parte). Non ricordo di aver letto dichiarazioni relative a "veri" usi intensivi; ricordo invece dichiarazioni che, tralasciando numeroni e andando a leggere tra le righe, lasciano intuire, ad una critica un po' più attenta, come si possa pensare ad un uso medio da parte dell'utenza domestica (per usi professionali esistono da "secoli" chip che sopportano fino a 5000000 di riscritture, e usati per un web server o un database con molti inserimenti durerebbero mooolto ma mooolto meno di un disco meccanico - basta una ricerchina per scoprire che è vero), e come i tanti gb/giorno dichiarati sembrino riferirsi ad una "rotazione ideale" del disco (come un buffer circolare, appunto, ma nei fatti un'unità di storage non sarà mai usata in questo modo, a meno che non la si usi interamente per lo swap della ram, ma credo proprio che come unità di swap non durerebbe a lungo). Del resto, l'efficienza di questi algotritmi nel mantenere costante e uguale il degrado di tutte le celle, dubito fortemente che possa non essere influenzata dall'occupazione del disco (= meno spazio libero -> minore libertà d'azione), dalla presenza di file fissi (entro certi limiti si potrebbero anche spostare, ma entro certi limiti) e dal rapporto tra i file aggiornati spesso e quelli con minori variazioni (che rimarrebbero belli tranquilli su celle "quasi vergini", mentre altre celle si consumerebbero velocemente: si può anche pensare di spostare tutto in modo da bilanciare sempre lo stato di ogni blocco di celle, ma una strategia di questo tipo sarebbe equivalente ad una deframmentazione costante del dispositivo, e le prestazioni andrebbero a putt...).
Poi, capiamoci, io non contesto le "incredibili specifiche" di un ssd, se parliamo di prestazioni, e ti dirò di più: se fossero usati come una specie di memoria read only, con le celle riscritte con gli stessi dati ogni tot anni, manterrebbero i dati inalterati praticamente in eterno! Ma per un uso intensivo (e sarei felicissimo se qualcuno mi smentisse con argomentazioni incontrovertibili e dati tecnici precisi) dubito fortissimamente che potranno mai essere, se basati su nand flash, più affidabili di uno storage magnetico, perchè una cella "morta" è una cella con dati persi irrimediabilmente, mentre un con un disco rotto c'è la speranza che il problema riguardi solo la meccanica e non i dati, ed è possibile estrarne i piatti e inserirli in una meccanica funzionante per recuperare i dati (può essere costoso, può essere un'operazione non banale, ma è comunque un'operazione POSSIBILE, mentre recuperare i dati da un chip di flash morto è impossibile). Inoltre, collegando più hard disk (scelti bene) in una catena raid 1 l'affidabilità complessiva cresce, mentre facendo la stessa cosa con dispositivi di memoria flash non cambia di una virgola. Spero che le PMC (http://www.hwupgrade.it/news/memorie/terabyte-di-dati-su-memorie-flash-un-futuro-possibile_23070.html) (le nanoioniche) mantengano tutte le promesse (in particolare, i costi 10 volte inferiori e l'uso di materiali e macchinari simili), così nel giro di un paio d'anni avremo degli ssd velocissimi, a prezzi umani, moolto affidabili e (cosa che non guasta) con consumi ancora inferiori (fino a mille volte!!!)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.