|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
www.hwupgrade.it
Iscritto dal: Jul 2001
Messaggi: 75166
|
Link alla notizia: http://www.hwupgrade.it/news/storage/23785.html
In mostra al CES di Las Vegas i primi Solid State Disk a marchio Intel Click sul link per visualizzare la notizia. |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: May 2000
Città: Milano
Messaggi: 14021
|
diciamo che sono ai livelli ci una compact flash di ultima generazione...
comunque si tratta di sviluppi interessanti: i singoli chip possono essere sfruttati per diverse finalità, come appunto i "classici" dischi per computer o per i sistemi embedded... |
|
|
|
|
|
#3 |
|
Senior Member
Iscritto dal: Sep 2004
Città: Vicino a Milano
Messaggi: 1913
|
...Non resta che attendere maggiori informazioni direttamente da Intel...
Non resta che attendere i test di affidabilità: che succede dopo un milione / un miliardo di letture /scritture (ma soprattutto scritture)? . |
|
|
|
|
|
#4 | |
|
Amministratore
Iscritto dal: Jan 2001
Città: Luino (VA)
Messaggi: 5122
|
Quote:
Intel, ma anche altri che usano tecnologie identiche o simili, dichiarano un MTBF di 2,5 milioni di ore, ovvero circa 280 anni. Dividi anche per 10 per sicurezza.. direi che crollano prima tutte le altre parti del PC :P Scusate se non rispondo ulteriormente, ma sono dall'altra parte del mondo e adesso vado a dormire. Domani rispondo nei limiti del possibile ad eventuali, ulteriori dubbi. |
|
|
|
|
|
|
#5 | |
|
Senior Member
Iscritto dal: May 2000
Città: Milano
Messaggi: 14021
|
Quote:
ciao Ale! PS: ho letto che anche Sandisk ha messo in commercio i suoi SSD... facci sapere qualcosa
__________________
Canon EOS 300D; Canon EOS 40D; 17-40 f4 L; EF 50 f1.8; Sigma EX 28-70 f2.8; 70-200 f4 L; Sigma APO 100-300mm F4 EX IF HSM; TC Sigma 1.4x EX Apo DG; Canon EOS 5 con VG; Flash SpeedLite 200E; Canon T50; FD 28 f2.8; FD 50 f1.8; FD 70-210 f4 |
|
|
|
|
|
|
#6 |
|
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Se il transfer rate del singolo chip è sui 40 MB/s mi sa che si potranno raggiungere velocità mostruose con 16 chip (64 GB).
|
|
|
|
|
|
#7 |
|
Senior Member
Iscritto dal: May 2000
Città: Milano
Messaggi: 14021
|
sempre che si possano montare "in parallelo" (tipo raid)...
__________________
Canon EOS 300D; Canon EOS 40D; 17-40 f4 L; EF 50 f1.8; Sigma EX 28-70 f2.8; 70-200 f4 L; Sigma APO 100-300mm F4 EX IF HSM; TC Sigma 1.4x EX Apo DG; Canon EOS 5 con VG; Flash SpeedLite 200E; Canon T50; FD 28 f2.8; FD 50 f1.8; FD 70-210 f4 |
|
|
|
|
|
#8 |
|
Senior Member
Iscritto dal: May 2007
Città: Torino, in the court of the Crimson King Scudetti:29
Messaggi: 1420
|
Lo sapevo che questo CES segnava la presentazione di un pò di SSD, dai dai, producete, producete che più ne escono fuori più si abbassano i prezzi
__________________
Sony Alpha A200 (SIGMA 18-50 f/2.8 EX DC| minolta af 50 f/1.7| minolta AF 70-210 f/4 "Beercan" | minolta 135 f/2.8| Samyang 8mm fisheye CS)-Flickr Se non ti perdi, non trovi strade nuove.
|
|
|
|
|
|
#9 | |
|
Senior Member
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
|
Quote:
Il modo più semplice è andare a scrivere un bit su ogni chip...ovviamente non si può con questi tipi di chip, perché credo che lavorino a pacchetti di una certa dimensione. Si tratta quindi di andare a spalmare i blocchi di byte ricevuti su tutti i chip. Basta metterci una memoria ram (per definizione più veloce dei chip) davanti che fa da buffer (c'è anche sui normali dischi) per poter lavorare su un numero di blocchi multiplo del numero di chip. In base all'indirizzamento logico del disco si fa una traduzione in modo che blocchi successivi nell'indirizzamento logico corrispondano a chip diversi. Questo comportamento è anche avvantaggiato dal fatto che i livelli di caching del sistema operativo funzionano quasi esclusivamente in burst. |
|
|
|
|
|
|
#10 | |
|
Senior Member
Iscritto dal: May 2007
Città: Torino, in the court of the Crimson King Scudetti:29
Messaggi: 1420
|
Quote:
__________________
Sony Alpha A200 (SIGMA 18-50 f/2.8 EX DC| minolta af 50 f/1.7| minolta AF 70-210 f/4 "Beercan" | minolta 135 f/2.8| Samyang 8mm fisheye CS)-Flickr Se non ti perdi, non trovi strade nuove.
|
|
|
|
|
|
|
#11 | |
|
Senior Member
Iscritto dal: Jan 2005
Messaggi: 7200
|
Quote:
Regards |
|
|
|
|
|
|
#12 |
|
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
Mah, del numero di ore di funzionamento previste non so che farmene... anche perchè la durata non dipende dal tempo di utilizzo, ma dal modo in cui si usano, e nel valutare l'uso medio (=numero medio di scritture per ora, in un certo scenario d'uso quotidiano) possono barare quanto vogliono, come i produttori di automobili nel dichiarare i consumi e le emissioni... Preferei sapere, piuttosto, come funzionano questi algoritmi (che mi convincono poco), dove e come memorizzano o ricostruiscono le informazioni sullo stato delle celle e il loro utilizzo, quindi anche la posizione della tabella di allocazione (dubito che possa esserci un qualche algoritmo "ripetitivo", come quelli dei codici degli antifurto, ma tutto è possibile, solo vorrei conoscere qualche dettaglio), e quanto sono efficienti con le sovrascritture dei file e/o in presenza di frammentazione, in particolare in relazione al livello di occupazione del disco, perchè se l'affidabilità è calcolata ipotizzando la scrittura di dati nuovi, con uno spazio libero sufficiente, e il livellamento consiste nell'utilizzo del disco come una specie di buffer circolare, allora siamo proprio in alto mare... Spero solo che non siano specchietti per le allodole, e che, causa marketing, non finiscano per azzoppare e ritardare troppo tecnologie ben più promettenti, come le Nram o le celle nanoioniche.
|
|
|
|
|
|
#13 |
|
Member
Iscritto dal: Aug 2006
Messaggi: 75
|
xeal, di solito le specifiche dichiarate dai produttori sono in un utilizzo intensivo del dispositivo... e cmq, si basano sulla RIscrittura delle celle e non su dati nuovi.
gli SSD come specifiche sono incredibili rispetto ai magnetici... davvero. il problema è il prezzo |
|
|
|
|
|
#14 |
|
Senior Member
Iscritto dal: Jun 2003
Città: vivo in Sicilia (tra la prov. di AG e Palermo)
Messaggi: 956
|
I limiti per le riscritture sono sempre gli stessi: circa 100000 per le SLC, circa 10000 per le MLC; mi pare più che ovvio che un algoritmo software non possa cambiare le caratteristiche intrinseche di un hardware. Qui si parla di algoritmi che cercano di allungare la vita del disco spalmando il più possibile le scritture su tutte le celle (sostanzialmente, quando si deve riscrivere una cella - o meglio, un blocco - si sposta il file/il blocco corrispondente su un altro blocco che è stato sovrascritto un minor numero di volte, quindi si tratta la riscrittura come se fossero dati nuovi da posizionare da qualche parte). Non ricordo di aver letto dichiarazioni relative a "veri" usi intensivi; ricordo invece dichiarazioni che, tralasciando numeroni e andando a leggere tra le righe, lasciano intuire, ad una critica un po' più attenta, come si possa pensare ad un uso medio da parte dell'utenza domestica (per usi professionali esistono da "secoli" chip che sopportano fino a 5000000 di riscritture, e usati per un web server o un database con molti inserimenti durerebbero mooolto ma mooolto meno di un disco meccanico - basta una ricerchina per scoprire che è vero), e come i tanti gb/giorno dichiarati sembrino riferirsi ad una "rotazione ideale" del disco (come un buffer circolare, appunto, ma nei fatti un'unità di storage non sarà mai usata in questo modo, a meno che non la si usi interamente per lo swap della ram, ma credo proprio che come unità di swap non durerebbe a lungo). Del resto, l'efficienza di questi algotritmi nel mantenere costante e uguale il degrado di tutte le celle, dubito fortemente che possa non essere influenzata dall'occupazione del disco (= meno spazio libero -> minore libertà d'azione), dalla presenza di file fissi (entro certi limiti si potrebbero anche spostare, ma entro certi limiti) e dal rapporto tra i file aggiornati spesso e quelli con minori variazioni (che rimarrebbero belli tranquilli su celle "quasi vergini", mentre altre celle si consumerebbero velocemente: si può anche pensare di spostare tutto in modo da bilanciare sempre lo stato di ogni blocco di celle, ma una strategia di questo tipo sarebbe equivalente ad una deframmentazione costante del dispositivo, e le prestazioni andrebbero a putt...).
Poi, capiamoci, io non contesto le "incredibili specifiche" di un ssd, se parliamo di prestazioni, e ti dirò di più: se fossero usati come una specie di memoria read only, con le celle riscritte con gli stessi dati ogni tot anni, manterrebbero i dati inalterati praticamente in eterno! Ma per un uso intensivo (e sarei felicissimo se qualcuno mi smentisse con argomentazioni incontrovertibili e dati tecnici precisi) dubito fortissimamente che potranno mai essere, se basati su nand flash, più affidabili di uno storage magnetico, perchè una cella "morta" è una cella con dati persi irrimediabilmente, mentre un con un disco rotto c'è la speranza che il problema riguardi solo la meccanica e non i dati, ed è possibile estrarne i piatti e inserirli in una meccanica funzionante per recuperare i dati (può essere costoso, può essere un'operazione non banale, ma è comunque un'operazione POSSIBILE, mentre recuperare i dati da un chip di flash morto è impossibile). Inoltre, collegando più hard disk (scelti bene) in una catena raid 1 l'affidabilità complessiva cresce, mentre facendo la stessa cosa con dispositivi di memoria flash non cambia di una virgola. Spero che le PMC (le nanoioniche) mantengano tutte le promesse (in particolare, i costi 10 volte inferiori e l'uso di materiali e macchinari simili), così nel giro di un paio d'anni avremo degli ssd velocissimi, a prezzi umani, moolto affidabili e (cosa che non guasta) con consumi ancora inferiori (fino a mille volte!!!) |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 04:44.




















