View Full Version : Disco SSD da 128GB da Toshiba
Redazione di Hardware Upg
10-12-2007, 08:32
Link alla notizia: http://www.hwupgrade.it/news/storage/disco-ssd-da-128gb-da-toshiba_23549.html
Toshiba è prossima a presentare al pubblico un disco a stato solido da 128GB di capienza. In commercio dal primo trimestre 2008
Click sul link per visualizzare la notizia.
killer978
10-12-2007, 08:36
Iniziano ad uscire soluzioni interessanti ì!!
128gb x un disco da 1,8 pollici sono tanti, ora dobbiamo aspettare solo che calino di prezzo
Wilfrick
10-12-2007, 08:45
Finalmente si comincia a ragionare. Tuttavia si aspettano sempre soluzioni per desktop oltre che per notebook.
Faustinho DaSilva
10-12-2007, 08:55
meno male che il ceo di segate ha detto che per i prossimi 10 anni i disci rigidi rimarranno sostanzialmente identici a quelli attuali!
A settembre 2007 l'americana Bitmicro presenta invece E-Disk Altima E2A3GL, il primo disco a stato solido con una capienza di 465GB, con una velocità di lettura e scrittura pari a 100 MB/s. La commercializzazione è prevista per marzo 2008. fonte wikipedia
Finalmente si comincia a ragionare. Tuttavia si aspettano sempre soluzioni per desktop oltre che per notebook.
i dischi sata da 2,5 pollici sono gia compatibili con i pc desktop senza bisogno di adattatori ( se non quello per l'alloggiamento)
160 Gb e sarei a posto! Ah...magari c'e' ancora un piccolo problema di prezzo :D...
Questi dischi allo stato solido soffrono del problema del numero limitato di scritture come le chiavette usb?
Crisa...
10-12-2007, 09:06
Questi dischi allo stato solido soffrono del problema del numero limitato di scritture come le chiavette usb?
ovvio che si
eh ma tutto sta nel prezzo...
raffobaffo
10-12-2007, 09:21
quali sono i prezzi attuali?
Bellissimo, ma se un 32 GB SSD si trova a circa 600 Euro, un 128 quanto costerà? 2000 Euro?
Questi dischi allo stato solido soffrono del problema del numero limitato di scritture come le chiavette usb?
Utilizzano un algoritmo di allocazione dinamica dei settori più scritti in modo da spalmare le scritture in maniera bilanciata su tutte le celle dei chip.
Dreadnought
10-12-2007, 09:42
Quindi prima o poi ti ritrovi con un disco che non può più essere scritto e probabilmente nemmeno letto... :/
Molto poi piuttosto che prima ;-)
Ben vengano questi dischi cosí i prezzi inizieranno a scendere :-D
Gandalf64
10-12-2007, 09:50
Come riportato da diversi produttori con una movimentazione di 50 gb giorno (che sinceramente mi sembano tanti) durerebbero 140 anni
quindi molto piu' di quelli magnetici !
d'altra parte la prima destinazione e' per ambienti industriali e militari
dove anche la durata in condizioni di stress e' importante
il prezzo e' in discesa adesso si trovano dei 32gb (meno veloci) sui 300 euro
bLaCkMeTaL
10-12-2007, 09:50
adesso manca solo un piccolo cavetto (SATA 3?) per il trasferimento di corrente + dati in modo da recuperare un pochettino di spazio extra!
E' stupendo veder avanzare in UN anno una tecnologia così all'avanguardia!:D
Paganetor
10-12-2007, 09:54
mi domando perchè non fanno dischi con una forma diversa da quella dei dischi "convenzionali"... in pratica, soprattutto per i dispositivi portatili, potrebbero farli lunghi e sottili, o corti e tozzi... insomma, possono farli di forme più utili per sfruttare al meglio gli spazi a disposizione nei vari oggetti portatili...
Wilfrick
10-12-2007, 09:54
Vero, ci puoi scrivere sopra quanto vuoi che in ogni caso, a paragone, un disco a piatti si distrugge molto ma molto prima. Questo almeno prendendo per buone certe info fornite.
que va je faire
10-12-2007, 10:26
scrittura 40 mb/s? non ci siamo proprio...
Wilfrick
10-12-2007, 10:36
La scrittura è 40 MB/s, non mb. Mi sembra che sia ottima, considerando che è costante, senza cali. Difficile che un qualsiasi altro disco arrivi a tanto.
Skynet*J4F*
10-12-2007, 10:43
ne voglio 4 in raid 0
mi domando perchè non fanno dischi con una forma diversa da quella dei dischi "convenzionali"... in pratica, soprattutto per i dispositivi portatili, potrebbero farli lunghi e sottili, o corti e tozzi... insomma, possono farli di forme più utili per sfruttare al meglio gli spazi a disposizione nei vari oggetti portatili...
cosi' finisce come le batterie e gli alimentetori in cui ogni marca ha il suo e nessuno e' compatibile con gli altri (e guarda caso i prezzi sono alti...)
ilmaestro76
10-12-2007, 11:14
i dischi sata da 2,5 pollici sono gia compatibili con i pc desktop senza bisogno di adattatori ( se non quello per l'alloggiamento)
infatti!
magari li possiamo tenere pure poggiati in un angolo vuoto del desktop...tanto loro non "frullano" di certo! :D ;)
non vedo l'ora che arrivino in commercio ;)
leddlazarus
10-12-2007, 11:28
non penso pero' che come prestazioni riescano a raggiungere gli attuali dischi sata 7200 giri per desktop o i raptor da 10000.
invece parlando di portatili il beneficio è indubbio sia per velocità che per consumo ed anche per silenziosità
marchigiano
10-12-2007, 12:18
mi domando perchè non fanno dischi con una forma diversa da quella dei dischi "convenzionali"... in pratica, soprattutto per i dispositivi portatili, potrebbero farli lunghi e sottili, o corti e tozzi... insomma, possono farli di forme più utili per sfruttare al meglio gli spazi a disposizione nei vari oggetti portatili...
noooooo vuoi togliere uno standard? vedi sul asus EEE come è facile e economico cambiare il SSD ora...
cracovia
10-12-2007, 12:51
non penso pero' che come prestazioni riescano a raggiungere gli attuali dischi sata 7200 giri per desktop o i raptor da 10000.
invece parlando di portatili il beneficio è indubbio sia per velocità che per consumo ed anche per silenziosità
Tieni conto che stiamo parlando di tempi di accesso di 0.1ms contro 4.6ms (Raptor)... In scritture sequenziali "vince" di certo il raptor, ma TUTTI gli altri aspetti sono nettamente a favore di questa nuova tecnologia. Incrementi prestazionali dal 30 a più del 200% :sofico:
Mercuri0
10-12-2007, 13:38
Utilizzano un algoritmo di allocazione dinamica dei settori più scritti in modo da spalmare le scritture in maniera bilanciata su tutte le celle dei chip.
Ma non dovrebbe essere il sistema operativo ad effettuare una funzione simile?
Su Linux almeno si parlava di implementare filesystem a questo scopo, se ho capito bene.
Invece dici che questi dischi lo fanno in hardware?
non penso pero' che come prestazioni riescano a raggiungere gli attuali dischi sata 7200 giri per desktop o i raptor da 10000.
invece parlando di portatili il beneficio è indubbio sia per velocità che per consumo ed anche per silenziosità
Interessante preview: Preview tests su SSD (http://www.anandtech.com/storage/showdoc.aspx?i=3167).
Buona lettura :)
Naufr4g0
10-12-2007, 16:42
Per me hanno più motivo di esistere sui notebook, dove il risparmio energetico è tutto. 100MB/s in lettura e 40MB/s in scrittura non è che mi sembrino velocità così incredibili. Cioè cmq sarebbero veloci e sfrutterebbero finalmente la banda del SATA, ma mi aspettavo qualcosa di meglio. Forse in futuro...
Utilizzano un algoritmo di allocazione dinamica dei settori più scritti in modo da spalmare le scritture in maniera bilanciata su tutte le celle dei chip.
Si, ma mica si possono fare miracoli... soprattutto in condizioni di uso "medio", con una quantità di spazio occupato variabile, e cancellazioni sparse... e comunque credo che possa sempre essere necessario scrivere qualcosa in un punto fisso... cioè dubito che si possa applicare un algoritmo con output "standard" come quelli degli antifurti per intenderci (che in un certo senso funzionano come gli algoritmi pseudocasuali: scelto il seme, la sequenza prodotta è ciclicamente sempre la stessa) perchè la decisione da prendere dipenderà dallo stato attuale del disco dopo ogni modifica (secondo me è un po' come dover cambiare il seed di tanto in tanto: da qualche parte bisognerà pur memorizzare le informazioni nuove, e siccome da queste informazioni dipende la capacità di spostare e ritrovare gli altri dati, allora non possono essere spostate e ritrovate nello stesso modo - al limite si potrebbe riservare un'area grande n volte la dimensione necessaria per le informazioni di partenza, e ciclare su quell'area, magari realizzata con tecnologia SLC, ma neanche questo equivarrebbe a un "miracolo" ).
Personalmente spero in tecnologie come le MRAM, le NRAM (quelle basate sui nanotubi e le forze di Van der Waals), o anche i recenti sviluppi sulla tecnologia nanoionica, che promette scritture rapide e teoricamente illimitate, e sembrerebbe abbastanza compatibile, a livello di produzione, con le memorie flash (entro 18 mesi si dovrebbe sapere qualcosa di nuovo).
Come riportato da diversi produttori con una movimentazione di 50 gb giorno (che sinceramente mi sembano tanti) durerebbero 140 anni
quindi molto piu' di quelli magnetici !
d'altra parte la prima destinazione e' per ambienti industriali e militari
dove anche la durata in condizioni di stress e' importante
E be', ma lo sappiamo tutti, no, che non bisogna credere alle parole degli addetti al marketing, vero? Quei dati possono anche essere veri, ma in un caso ideale (diciamo che hai 50GB contigui da spostare per bilanciare il consumo del disco, ma se i dati non sono contigui mi sa che cominciano i dolori, poi qui si parla di multilevel cell, che hanno una durata inferiore di almeno un ordine di grandezza).
I problemi dei dischi magnetici sono legati principalmente all'usura della componente meccanica, ma con una catena raid in stripping e mirroring il mean time between failure aumenta proporzionalmente al numero dei dischi, quindi diminuisce il rischio di perdere i dati, perchè comunque ci saranno alcuni dischi funzionanti con i dati "persi" sugli altri (o almeno le informazioni necessarie a ricostruirli, e comunque, finche il disco non perde la sua magnetizzazione, c'è sempre la possibilità di recuperare qualcosa - con le flash, invece, una volta raggiunto il limite di scritture, alla successiva avrai rovinato il contenuto dell'informazione su tutti i dischi che vuoi/puoi mettere in raid: poichè non vedo motivo alcuno per gestire dischi uguali, con uguali algoritmi di "movimentazione", in maniera diversa, la scrittura avverrà simmetricamente in tutti i dischi in mirroring, quindi si rovineranno tutti nello stesso modo e nello stesso momento...).
Per questo motivo, gli hd magnetici sono e saranno preferiti ancora a lungo sia come backup, sia come storage di massa, soprattutto in ambito server (prova ad esempio ad immaginare un web server con una gran mole di traffico da loggare...). Per usi industriali e militari con esigenze particolari, poi, da parecchio tempo e senza scomodare algoritmi di bilanciamento delle scritture, esistono memorie flash che raggiungono tranquillamente 5 milioni e più di scritture per cella, altro che 10000 cicli di una multi level cell........
IMHO, le previsioni di Seagate e compagnia bella sono veritiere: quando il costo degli ssd comincerà a scendere sul serio, vedremo arrivare in massa dischi tradizionali molto capienti dal costo molto contenuto, con velocità di rotazione superiore grazie a meccaniche moderne e silenziose, e un numero superiore di testine (e forse anche di bracci) per disco, per abbattere le latenze, oltre ad una notevole densità, tale da ridurre sempre di più il tempo di lettura/scrittura dei dati una volta posizionata la testina (perchè a parità di lunghezza del file e di velocità di rotazione bisognerà spazzare un angolo minore), con in più il vantaggio (che ai fini del marketing non è poco) di poter sostenere la possibilità di riscrivere infinite volte il disco. A meno che qualcuno non trovi interessante buttarsi in nuove tecnologie che superino i limiti delle memorie flash (vedi le nanoioniche) e proporle a basso prezzo per far guerra agli HD, ma questo andrebbe contro la legge economica dello spennamento marginale (ITNHO - mia invenzione, sta per in theri non humble opinion :p - sarà sicuramente meglio mantenere i prezzi alti e i prodotti più o meno di nicchia, almeno finchè la tecnologia a dischi rotanti non giunga ad un vicolo cieco, ma spero di essere smentito nel giro di pochi anni).
@Paganetor
La standardizzazione è fondamentale per abbattere i costi di produzione. Vedi ad esempio i "problemi" con le batterie dei notebook: se esistesse un numero limitato di "formati" standard, magari sarebbe più complicato fare delle personalizzazioni particolari di alcuni modelli, o creare nuovi form factor, ma sarebbe più semplice per un utente sostituire una batteria spendendo anche meno.
marchigiano
10-12-2007, 19:59
xeal, il bello degli ssd è che anche se c'è 1gb di cluster danneggiati basta che sono mappati e non c'è calo nelle prestazioni. i chip poi sono di qualità, almeno quelli degli ssd di marca, poi magari verrà fuori su ebay tra qualche anno gli ssd economici cinesi e quelli potrebbero durare poco...
ma quelli buoni, non so se durano 140 anni, ma ne durassero anche 14 mi basta e avanza :sofico: con l'attuale ritmo se oggi un 32GB costa 300 euro per quando si rompe con 300 euro ci compri un 32TB
Non parlavo di prestazioni, ma di integrità dei dati nel tempo (un hd con la sola meccanica danneggiata in qualche modo si può cercare di recuperarlo, mentre 1GB di cluster corrotti su un SSD è 1GB di dati persi), quindi di affidabilità, e in questo dubito serissimamente che una qualsiasi memoria flash possa eguagliare una catena di dischi in raid1 (insomma, in ambito professionale ci penserei mille volte prima di prenderli seriamente in considerazione, e se ancora fossi tentato ci penserei di nuovo: per certe applicazioni sono pochi anche i 5000000 di cicli dei chip migliori, che si vedono solo in ambito professionale, appunto).
Toshiba non mi sembra una marca supereconomica-rifila-sole, eppure i chip di cui si parla nella news sono tutt'altro che di elevata qualità: i multi-level cell consentono di ridurre gli "ingombri", e quindi i costi, ma al prezzo di una drastica riduzione dei cicli di scrittura (circa 10000 in totale), e l'andazzo per il futuro sembra l'uso di questo tipo di chip - 14 anni mi sa che possiamo solo sognarli. Insomma, i SSD non mi entusiasmano per niente, almeno finchè non tireranno fuori tecnologie migliori delle nand flash: ci sarebbero le celle nanoioniche cui accennavo prima, ma è una tecnologia acerba, mentre sembrano più mature le ram magnetiche - e quindi non volatili, oltre che veloci quasi come le SRAM - anche se credo siano più costose; dovrebbero cominciare a "maturare" presto le NRAM, basate su nanotubi di carbonio, che hanno una densità teorica massima di 1Tb per cm2, oltre ad essere paragonabili alle SRAM come velocità - in tutti e 3 i casi si parla di riscritture teoricamente illimitate, quindi spero che l'avanzata dei chip multi-level cell non rallenti troppo la loro adozione...
MenageZero
11-12-2007, 13:24
meno male che il ceo di segate ha detto che per i prossimi 10 anni i disci rigidi rimarranno sostanzialmente identici a quelli attuali!
A settembre 2007 l'americana Bitmicro presenta invece E-Disk Altima E2A3GL, il primo disco a stato solido con una capienza di 465GB, con una velocità di lettura e scrittura pari a 100 MB/s. La commercializzazione è prevista per marzo 2008. fonte wikipedia
sì ma quello che conta sono i prezzi: nei prossimi 10 anni potranno anche migliorare enormemente su tutti i fronti i dischi ssd (tra l'altro spesso l'introduziine di ognimiglioramento tecnologico anche nella medesima categoria di prodotto fa ri-aumentare i prezzi temporaneamente), potranno anche far debuttare ancora ulteriori nuove tecnologie, ci sarà magari anche un progressivo abbassamento dei prezzi degli ssd, ma tutto starà nell'entità e nella velocità di tale variazione:
metti che nei prossimi 10 anni i dischi ssd non scendano a prezzi vicini a quelli dei dischi tradizionali o lo facciano solo verso la fine del prox decennio, diffcilmente avranno una vera diffusione di massa ed i grandi numeri resteranno a favore dei piatti rotanti e tutti quelli che preferiscono produrre principalmente o solo dischi tradizionali continueranno a gongolare (ed il ceo di seagate potrà dire di aver avuto sostanzialmente ragione :asd: )
:boh:
gsorrentino
11-12-2007, 14:07
Si, ma mica si possono fare miracoli... soprattutto in condizioni di uso "medio", con una quantità di spazio occupato variabile, e cancellazioni sparse...allora non possono essere spostate e ritrovate nello stesso modo - al limite si potrebbe riservare un'area grande n volte la dimensione necessaria per le informazioni di partenza, e ciclare su quell'area, magari realizzata con tecnologia SLC, ma neanche questo equivarrebbe a un "miracolo" ).
Questo viene già fatto dai dischi normali di un certo livello, ossia in caso di problemi di un settore rimappano il contenuto su di un altro. Non vedo perchè non si possa fare con le memorie che dal punto di vista del PC, non è in grado di capire se stà parlando con un disco normale o SSD.
Quei dati possono anche essere veri, ma in un caso ideale (diciamo che hai 50GB contigui da spostare per bilanciare il consumo del disco, ma se i dati non sono contigui mi sa che cominciano i dolori
Per i dischi con i loro tempi di accesso si, per gli SSD no. Ne hai una prova usando una chiavetta USB (che utilizza un tipo di memoria diverso, ma sfrutta le stesse tecnologie per eliminare celle difettose) allo stato normale o deframmentandola. Il risultato praticamente non cambia, mentre per un HDD seppur velocissimo...
I problemi dei dischi magnetici sono legati principalmente all'usura della componente meccanica, ma con una catena raid in stripping e mirroring il mean time between failure aumenta proporzionalmente al numero dei dischi...
In realta questo è vero solo a seconda del tipo di RAID e solo se i dischi sono scelti bene (come ho più volte detto in altri post). Nel raid 0 in realtà si dimezza.
...quindi diminuisce il rischio di perdere i dati, perchè comunque ci saranno alcuni dischi funzionanti con i dati "persi" sugli altri (o almeno le informazioni necessarie a ricostruirli, e comunque, finche il disco non perde la sua magnetizzazione, c'è sempre la possibilità di recuperare qualcosa...
A parte che come fai il RAID 5 con tre dischi, allo stesso modo puoi farlo con 3 SSD, ma bisogna ricordarsi che negli SSD c'è già una sorta di ridondanza interna, proprio come la RAM dei server che ha il controllo di parità teso ad eliminare il malfunzionamento di una cella di memoria.
...con le flash, invece, una volta raggiunto il limite di scritture, alla successiva avrai rovinato il contenuto dell'informazione su tutti i dischi che vuoi/puoi mettere in raid: poichè non vedo motivo alcuno per gestire dischi uguali, con uguali algoritmi di "movimentazione", in maniera diversa, la scrittura avverrà simmetricamente in tutti i dischi in mirroring, quindi si rovineranno tutti nello stesso modo e nello stesso momento...
Le celle (che ricordo sono ruotate in modo da mantenere il più possibile medio il valore di scritture) che falliscono sono isolate, proprio come i settori guasti dei dischi normali. Se una cella non è più in gradi di ruotare sarà come se un disco si ritrovi con un problema di scrittura. Il RAID in ambedue i casi correggerà il problema segnalando che un disco è guasto e non garantendo più la protezione. Ripeto, vale sia per gli HDD che gli SSD.
IMHO, le previsioni di Seagate e compagnia bella sono veritiere: quando il costo degli ssd comincerà a scendere sul serio, vedremo arrivare in massa dischi tradizionali molto capienti dal costo molto contenuto, con velocità di rotazione superiore grazie a meccaniche moderne e silenziose, e un numero superiore di testine (e forse anche di bracci) per disco, per abbattere le latenze, oltre ad una notevole densità, tale da ridurre sempre di più il tempo di lettura/scrittura dei dati una volta posizionata la testina...
In realtà i dischi meccanici hanno più limiti delle memorie in questa direzione, quindi presto si arriva ad una capienza non più oltrepassabile se non cambiando tecnologia (laser e similari), ma a questo punto perchè non gli SSD?
In ultimo, faccio notare che allo stato attuale, nonostante il numero elevato di ore di funzionamento (medie ricordo) che vengono sbandierati dai produttori di HDD, tali valori sono calcolati teoricamente (mentre nelle celle di memoria possono essere provate fisicamente le letture), quindi la maggior parte dei costruttori dei server sugerisce (in base ai rientri di dischi rotti) di sostituire di dischi dopo il quinto anno di vita e di non superare comunque gli otto anni.
Questo viene già fatto dai dischi normali di un certo livello, ossia in caso di problemi di un settore rimappano il contenuto su di un altro. Non vedo perchè non si possa fare con le memorie che dal punto di vista del PC, non è in grado di capire se stà parlando con un disco normale o SSD.
Il problema non è POTER fare, ma DOVER fare: ad ogni scrittura su una stessa cella, questa si "rovina" un po', inevitabilmente, inesorabilmente, e diventa inutilizzabile più in fretta di un'area del substrato magnetico di un piatto rotante. E questo è un dato di fatto.
Per i dischi con i loro tempi di accesso si, per gli SSD no. Ne hai una prova usando una chiavetta USB (che utilizza un tipo di memoria diverso, ma sfrutta le stesse tecnologie per eliminare celle difettose) allo stato normale o deframmentandola. Il risultato praticamente non cambia, mentre per un HDD seppur velocissimo...
Provo a ripeterlo, così magari diventa più chiaro...
NON STO PARLANDO DI PRESTAZIONI!!!!!!!!
A parte il fatto che le chiavette non usano memorie diverse (le migliori, più costose, usano chip SLC, quelle normali chip MLC, esattamente come questo disco SSD di toshiba e come quelli di molti altri produttori, perchè l'andazzo è questo... la differenza tra ssd e chiavette sta nella velocità, che ottieni con più chip in parallelo, e nell'algoritmo che "spalma" le scritture, ma questo lo fa l'elettronica, non il supporto di memoria...), io mi riferivo al modo con cui vengono fatte le previsioni più rassicuranti: finchè posso spostare i file a mio piacimento e spalmare le scritture sul disco come se fosse una specie di buffer circolare (il che equivale a spostare blocchi contigui, avendo sempre lo spazio libero per poterlo fare), allora tutto fila liscio; ma cosa succede appena comincio ad avere file fissi, file aggiornati più spesso di altri (e alcuni saranno modificati spessissimo: log vari, registri, page file, tavole di allocazione, info aggiuntive nelle directory, giornale del filesystem, ecc.), file che crescono e altri che rimangono uguali o "diminuiscono di volume", uno spazio libero che diminuisce a fronte dello spazio occupato che cresce?
Chiaramente diventerà sempre più difficile spostare i file in blocco, cioè mi troverò, ad un certo punto, ad avere per ciascuna cella un numero diverso di scritture, che se all'inizio era un numero molto vicino al valore medio ottenuto con l'algoritmo di distribuzione, col passare del tempo se ne discosterà sempre di più e in maniera variabile, quindi l'algoritmo di distribuzione tenderà a perdere di efficacia (e sarei felicissimo di essere smentito da un algoritmo "perfetto", ma in informatica "perfetto" semplicemente non esiste); mi troverò anche con file sparsi, quindi dovrò ricordare molte più "cose" per conoscere lo stato del disco e distribuire bene le scritture, quindi l'algoritmo che uso tenderà a diventare più "complicato", e alla fine assomiglierà sempre di più a una specie di continua deframmentazione (con possibili risvolti anche sulle prestazioni: meglio usare celle da 5000000 di cicli senza dover ricorrere ad algoritmi "miracolosi", piuttosto che le multi-level cell da 10000 cicli, o anche le singol level cell da 100000 + gli algoritmi, che promettono miracoli pur non avendo l'aureola, no? però quelle costano, e pure tanto).
In realta questo è vero solo a seconda del tipo di RAID e solo se i dischi sono scelti bene (come ho più volte detto in altri post). Nel raid 0 in realtà si dimezza.
Anche con il raid 5 (e non solo) si possono avere problemi, perchè all'aumentare dei dischi aumenta la probabilità che ci siano due rotture consecutive prima della sostituzione e ricostruzione del disco danneggiato: per il massimo dell'affidabilità, meglio un raid1 con più copie, o comunque una ridondanza delle informazioni di parità e/o una doppia parità (parità diverse), e comunque sostituire in fretta i dischi con problemi. E i dischi vanno scelti bene, da lotti diversi ecc.
Io però avevo scritto "stripping E mirroring", cioè combinati (quindi raid 0+1 o meglio 1+0), per massimizzare sia le prestazioni, sia l'affidabilità ;)
Le celle (che ricordo sono ruotate in modo da mantenere il più possibile medio il valore di scritture) che falliscono sono isolate, proprio come i settori guasti dei dischi normali. Se una cella non è più in gradi di ruotare sarà come se un disco si ritrovi con un problema di scrittura. Il RAID in ambedue i casi correggerà il problema segnalando che un disco è guasto e non garantendo più la protezione. Ripeto, vale sia per gli HDD che gli SSD.
E io ripeto (:p) che una cella multi-livello (e quindi un blocco) diventerà inutilizzabile più "in fretta" di un elemento magnetico (e quindi anche un settore) di un disco (oltretutto, credo che il danneggiamento dell'area magnetizzabile sia dovuto più facilmente ad un lavoro "imperfetto" della testina, che non a problemi intrinseci del substrato - salvo difetti di fabbrica - il che vuol dire che migliorando e le qualità del substrato, e le tecniche di magnetizzazione - quindi, se necessario, via testine e bracci, ma questo vuol dire via meccanica, e quindi ssd perfetto :p - si può in teoria migliorare ancora di più l'affidabilità delle scritture, mentre per le celle di memoria flash c'è poco da fare, da questo punto di vista: parleremo sempre di un numero di scritture compreso tra 10000 e 100000, che non sono poche, ma neanche tante).
A parte che come fai il RAID 5 con tre dischi, allo stesso modo puoi farlo con 3 SSD, ma bisogna ricordarsi che negli SSD c'è già una sorta di ridondanza interna, proprio come la RAM dei server che ha il controllo di parità teso ad eliminare il malfunzionamento di una cella di memoria.
Posto di usare dischi identici, con una distribuzione omogenea delle informazioni (che siano esse dati o parità, cioè con blocchi di dimensione costante), avrò un'occupazione dei dischi perfettamente speculare, quindi applicherò l'algoritmo di rotazione delle celle in maniera speculare, quindi si rovineranno in maniera speculare e contemporanea -> è come avere una catena raid con dischi scelti male (con la certezza che avranno tutti gli stessi problemi e tutti nello stesso momento).
Gira e rigira il problema è sempre lo stesso: limite_max_10000 vs limite_max_infinito (o giù di li). Un chip di memoria flash rovinato è un chip di dati persi irrimediabilmente, mentre un disco rotto potrebbe avere i piatti ancora leggibili, quindi, se ne vale la pena, si può provare a recuperarli, ad esempio infilando i piatti in un disco "identico" (= stesso produttore, stessa meccanica, stesso firmware) - tralascio le ipotesi di lettura al microscopio elettronico - può essere costoso, complicato, di esito incerto, ma NON assolutamente impossibile. Detto ancora altrimenti, la vita di un hard disk è legata principalmente alle ore medie di funzionamento, ovvero al logorio della componente meccanica, mentre quella di un ssd al numero massimo di scritture per ciclo: si può migliorare, sia dal punto di vista della qualità delle celle, sia con l'utilizzo di algoritmi di rotazione, ma, come dicevo nell'altro post, "non si possono fare miracoli".
In realtà i dischi meccanici hanno più limiti delle memorie in questa direzione, quindi presto si arriva ad una capienza non più oltrepassabile se non cambiando tecnologia (laser e similari), ma a questo punto perchè non gli SSD?
Ma le previsioni dei produttori di hd possono essere valide proprio per il periodo necessario al raggiungimento dei limiti delle loro tecnologie, oltre chiaramente si dovrà cambiare, e spero che per allora siano disponibili e a basso costo soluzioni per gli SSD basate su tecnologie migliori delle flash MLC/SLC. Anzi, io spero che le alternative arrivino prima (confido nelle nanoioniche, soprattutto per la possibilità di avere in teoria una migrazione quasi indolore, economicamente parlando) e vengano adottate in massa. In conclusione, non preferisco gli HD agli SSD "per partito preso", ma li preferisco OGGI, sia per il costo, sia perchè le caratteristiche dei chip flash (e l'andazzo di preferire le MLC alle SLC) non mi piacciono molto, ma al contrario il concetto di un dispositivo di storage puramente elettronico (ma non necessariamente basato - anzi, preferibilmente NON basato - su nand flash) mi intriga tantissimo (ti dirò di più: se una nuova tecnologia consentisse di ridurre i consumi a un livello soddisfaciente, preferirei anche un ram disk, quindi basato su memoria volatile, ad un disco elettromeccanico - premesso che per me soddisfaciente vuorrebe dire poter usare una batteria al litio ricaricabile, paragonabile a quelle delle MB, per alimentare un disco da alcune centinaia di GB per parecchi mesi a computer spento e staccato dalla rete...)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.