View Full Version : Kingston, via al commercio di SSD fabbricate da Intel
Redazione di Hardware Upg
16-01-2009, 11:23
Link alla notizia: http://www.hwupgrade.it/news/storage/kingston-via-al-commercio-di-ssd-fabbricate-da-intel_27725.html
Uno dei brand più conosciuti nell'ambito delle memorie ha annunciato l'inizio della commercializzazione di soluzioni basati su chip sviluppate da Intel
Click sul link per visualizzare la notizia.
vaaaai... ora c'è anche kingston.
A questo punto penso che sia solo questione di tempo prima che i prezzi calino a picco per le SSD.
BlackRider
16-01-2009, 11:39
"Le due nuove famiglie saranno inoltre garantite per una durata rispettivamente di 2 MTBF (Million hours mean time before failure) e di 1.2."
Per quanto ne so e per quanto mi hanno insegnato MTBF significa "solo" Mean Time Between Failures ;)
Animaribelle
16-01-2009, 11:41
SBAV!!!! si sà niente sui prezzi???
appleroof
16-01-2009, 12:13
Ottimo, aspetto conferme def. circa l'affidabilità di questi SSD, e appena esce un 128gb a prezzo umano me lo prendo per l'OS e i programmi :)
Nemwiper
16-01-2009, 12:13
SMART! Finalmente!
CoolBits
16-01-2009, 12:29
Ottima notizia....però dubito che avranno prezzi popolari....però sempre più big si stanno muovendo e forse per fine potremo trovare SSD sui 128GB a buon prezzo
Micene.1
16-01-2009, 12:30
bene la concorrenza farà abbassare i prezzi velocemente...
marchigiano
16-01-2009, 12:33
sarà interessante vedere se aggiungeranno qualche valore ai dati smart o incasineranno quelli esistenti
afterburner
16-01-2009, 12:53
SMART! Finalmente!
Se non sbaglio, uno studio di google inc. di un paio d'anni fa su migliaia di hard disk rotti e sostituiti nei propri datacenter ha praticamente detto che i parametri SMART non servono una beata fava :)
Magari con gli SSD riescono a renderli n'attimo piu' utili ..
Per il resto, molto bene che arrivi anche Kingston sul carretto dei produttori di SSD.
Notturnia
16-01-2009, 13:22
confermo che SMART non serve ad una cippa..
in 15 anni ho rotto una 20ina di dischi e solo uno mi avvisò per tempo grazie al sw che leggeva i dati smart.. gli altri dicevano sempre "tutto bene" e quando si sono rotti hanno detto "problema" .. ma ormai lo sapevo anche io..
negli ssd forse sarà diverso.. ma resto dell'idea che è meglio cambiare i dischi ogni qualche anno e non affidarsi alla tecnologia smart...
si sa mai.. backup e cambio dischi..
SSD poi va bene.. se scendono.. e superano i Vraptor come prestazioni..
...S.M.A.R.T servono e sono utili solo se bene interpretate...anche da Google.
Esiste una letteratura anche di livello accademico sterminata circa l'utilità di tale sistema di previsione dei guasti degli hard disk a dischi in rotazione.
Sistema che fu brevettato e sviluppato a suo tempo da I.B.M che impiegò il suo antesignano (P.F.A) nelle unità S.C.S.I.
S.M.A.R.T tiene sotto controllo un insieme di parametri elettromeccanici ed in base al superamento di determinate soglie inizia una analisi di tipo storico-statistico.
Il programma di interfaccia naturalmente deve essere scritto bene.
Esiste un insieme di cause che possono condurre a guasto improvviso non predicibile a priori che esulano e sono al di fuori dell'universo di parametri che costituiscono la statistica su cui si basa S.M.A.R.T.
Sugli hard disk "convenzionali" oggi sappiamo moltissimo; né conosciamo nel dettaglio i limiti di affidabilità.
Piuttosto l'alone di iperottimismo che circonda ogni nuovo annuncio di S.S.D dovrebbe essere ridimensionato...hanno ancora una storia "di uso sul campo" (sia S.o.h.o che in server di varie dimensioni e destinazione d'uso) molto "limitata" agli oltre cinquanta anni di vita del sistema "winchester".
Grazie.
Marco71.
SwatMaster
16-01-2009, 14:06
la fascia M invece sarà indirizzata ad una fascia di mercato più ampia e presenterà pertanto sempre 250MB/s in lettura sequenziale ma solo 70MB/s in fase di scrittura
70MB/s in scrittura? Che senso hanno? :mbe:
Che sono MLC e, ovviamente, costano molto meno.
Se sono 70 reali, decisamente surclassano la velocità del disco del mio notebook in scrittura (che è vero non è un fulmine di guerra, ma tant'è...)
illidan2000
16-01-2009, 14:13
...S.M.A.R.T servono e sono utili solo se bene interpretate...anche da Google.
Esiste una letteratura anche di livello accademico sterminata circa l'utilità di tale sistema di previsione dei guasti degli hard disk a dischi in rotazione.
Sistema che fu brevettato e sviluppato a suo tempo da I.B.M che impiegò il suo antesignano (P.F.A) nelle unità S.C.S.I.
S.M.A.R.T tiene sotto controllo un insieme di parametri elettromeccanici ed in base al superamento di determinate soglie inizia una analisi di tipo storico-statistico.
Il programma di interfaccia naturalmente deve essere scritto bene.
Esiste un insieme di cause che possono condurre a guasto improvviso non predicibile a priori che esulano e sono al di fuori dell'universo di parametri che costituiscono la statistica su cui si basa S.M.A.R.T.
Sugli hard disk "convenzionali" oggi sappiamo moltissimo; né conosciamo nel dettaglio i limiti di affidabilità.
Piuttosto l'alone di iperottimismo che circonda ogni nuovo annuncio di S.S.D dovrebbe essere ridimensionato...hanno ancora una storia "di uso sul campo" (sia S.o.h.o che in server di varie dimensioni e destinazione d'uso) molto "limitata" agli oltre cinquanta anni di vita del sistema "winchester".
Grazie.
Marco71.
io intanto mi sono attrezzato con un cheetah 15k.6 .
ancora non l'ho montato, ma potrei prendere su internet un altro per il raid0.
leggendo queste notizie sugli ssd, non so se ho fatto bene, cmq.... meglio del raid di raptor andranno!
ps. non ci sono problemi con firmware diversi, vero marco? (sui cheetah)
SwatMaster
16-01-2009, 14:47
Che sono MLC e, ovviamente, costano molto meno.
Se sono 70 reali, decisamente surclassano la velocità del disco del mio notebook in scrittura (che è vero non è un fulmine di guerra, ma tant'è...)
Credo che siano velocità teoriche. In pratica, lo scenario può essere totalmente diverso.
...E comunque non vedo perchè uno dovrebbe abbandonare gli HDD per un prodotto con performance così risicate (per essere un SSD, intendo).
...stai tranquillo...poi mica per dire la serie 15K.6 è quella "tradizionale" più veloce disponibile oggi pubblicamente/commercialmente (almeno nel form factor da 3.5 pollici; oltre in quello da 2.5 i Savvio 15K.2 sono lo stato dell'arte de facto).
Che versioni di firmware hanno i tuoi Cheetah 15K.6 ?
Ora come ora penso però che siano appetibili anche le unità famiglia 15K.5 almeno per l'utente privato che voglia allestire una matrice con molte unità, magari in R.A.I.D 50.
Io né ho sei (15K.5 73 GiB) in R.A.I.D 50 Ultra S.C.S.I su un sistema acceso 24x7.
E non si può nemmeno stare "alla finestra" indefinitamente aspettando la "buona novella" vale a dire S.S.D affidabili and S.S.D a prezzo basso and S.S.D ad elevata capacità.
Chiaramente sul lungo/lunghissimo periodo (crisi mondiali e guerre termonucleari permettendo) gli S.S.D (o qualsiasi altro paradigma di memoria che non coinvolga componenti elettromeccaniche) soppianteranno gli eredi del R.A.M.A.C ma questo avvicendamento avverrà per gradi.
Mi piacerebbe anche sapere quanto costerebbe la sostituzione 1:1 di unità a disco con S.S.D nello sterminato numero di server, supercomputer ecc. ecc. presenti sul nostro pianeta.
In una matrice R.A.I.D auspicabilmente sarebbe meglio avere unità con identiche versioni di firmware ma eventuali differenze possono essere "assorbite" dal firmware di controllo di un buon controllore (escludo a priori i "fake controller" stile ICHxR che sono poco più che "glue logic" per mantenere insieme più unità fisiche per costituirne una logica in differenti sapori R.A.I.D).
Grazie.
Marco71.
...la previsione matematicamente esatta di guasto di un complesso sistema elettronico, elettromeccanico, biologico (il corpo umano) non la può fare nemmeno uno dei più famosi elaboratori serie H.A.L 9000...solo per via statistica e comunque in modo non deterministico.
Il funzionamento, le specifiche di S.M.A.R.T sono state sempre mal comprese dal "grande pubblico" anche presso molti cosiddetti "addetti ai lavori" della cosiddetta I.T ingenerando molto spesso attese non realistiche.
Gli S.S.D quando aderiranno ad un qualche standard di interfaccia/bus (S.A.T.A/S.A.S ecc.) avranno bisogno comunque di un alter ego di S.M.A.R.T comprendente un nuovo set di parametri.
La presenza di un sistema di autodiagnosi sarà ancora molto più importante che non per gli hard disk dato che a priori "la gente" della strada e non tende a divinizzare gli S.S.D di oggi considerandoli una sorta di Golem indistruttibile.
Grazie.
Marco71.
afterburner
16-01-2009, 17:42
...S.M.A.R.T servono e sono utili solo se bene interpretate...anche da Google.
Sei liberissimo di pensare il contrario ma credo che Google abbia sistemisti, persone e contatti con i produttori tali da essere in grado di interpretare e analizzare pienamente tutti i parametri SMART e su una popolazione di migliaia di hard disk.
Ti consiglio di leggere questo:
http://research.google.com/archive/disk_failures.pdf
Tratto dal link sopra:
"Out of all failed drives, over 56% of them have no count in any of the four strong SMART signals, namely scan errors, reallocation count, offline reallocation, and probational count."
e
"We conclude that it is unlikely that SMART data alone can be effectively used to build models that predict failures of individual drives."
SMART ha una validita' statistica su larghe popolazioni ma nella pratica quotidiana, piu' di un hdd su due si guasta senza che i parametri SMART rivelino alcunche'.
In pratica il sistema SMART, in piu' del 50% dei casi, contribuisce a dare una falsissima sensazione di dischi in salute.
...che non abbia letto il su indicato documento di sintesi ?
S.M.A.R.T ha bisogno di una popolazione statisticamente significativa solo in fase di scelta di quali parametri analizzare...non nel caso del singolo hard disk.
Ci sono molte condizioni al contorno nell'uso quotidiano degli hard disk di cui S.M.A.R.T non tiene conto.
Attento perché le previsioni di guasto per un qualsiasi sistema complesso fisico sono tutte di tipo non deterministico.
Anche per i tanto di "moda" S.S.D.
Le "false sensazioni di salute" ci sono anche per gli S.S.D.
Nemmeno il "calcolatore" H.A.L 9000 di un famoso film di fantascienza è in grado di predire con certezza matematica quando un suo componente andrà incontro a "fallimento".
Molti pensano che eliminate le componenti elettromeccaniche per magia i valori di M.T.B.F (o di affidabilità "a pelle") multi milionari in ore, divengano di fatto leggi divine.
Se Google ritiene (a ragione) che S.M.A.R.T "da solo" non sia sufficiente per la elaborazione di un modello di previsione dei guasti per i "tradizionali" hard disk (che sono oggetto di studio da decenni), quando avrà sostituito l'ultimo suo hard disk con una unità S.S.D, si ritroverà nel tempo a dire le stesse cose.
Grazie.
Marco71.
illidan2000
16-01-2009, 19:41
..
Che versioni di firmware hanno i tuoi Cheetah 15K.6 ?
Marco71.
quello che è arrivato da singapore ha: HS09
mentre quello che vorrei prendere dalla germania: MS01
...tutto a posto.
Da tenere presente che il controllo di qualità sui firmware delle unità "enterprise" è molto più stringente che non quello fatto per altri modelli di hard disk.
I cambiamenti di solito sono volti ad incrementarne la affidabilità prima che la velocità.
Unica eccezione il time out che si verificava con le unità Ultra 320 15K.3/10K.6 con firmware precedente alla 0006.
Problema che comunque trovò rapida soluzione e che si verificava solo con una ristretta rosa di controllori S.C.S.I.
Grazie.
Marco71.
OutOfBounds
16-01-2009, 23:56
bisogna solo avere un po' di pazienza... penso che non tarderanno molto ad arrivare buoni prodotti a prezzi umani
afterburner
17-01-2009, 00:33
Le "false sensazioni di salute" ci sono anche per gli S.S.D.
...
Molti pensano che eliminate le componenti elettromeccaniche per magia i valori di M.T.B.F (o di affidabilità "a pelle") multi milionari in ore, divengano di fatto leggi divine.
Ammetterai pero' che eliminate le componenti elettromeccaniche, si eliminano con tutta tranquillita' almeno il 50% (ma secondo me anche 80-90%) delle cause di failure di un hard disk classico.
Se Google ritiene (a ragione) che S.M.A.R.T "da solo" non sia sufficiente per la elaborazione di un modello di previsione dei guasti per i "tradizionali" hard disk (che sono oggetto di studio da decenni), quando avrà sostituito l'ultimo suo hard disk con una unità S.S.D, si ritroverà nel tempo a dire le stesse cose.
Grazie.
Marco71.
Prevedere i guasti di componenti meccanici ed elettromeccanici degli hdd tradizionali e' impossibile. Ad esempio, come fa SMART a capire se il braccio di un hdd ha delle crepe e di conseguenza si rompera'? Non puo'. Come fa SMART a capire se manca olio su una bronzina del motore per cui questo grippera'? Non puo'.
Appunto per questo si ricorre a modelli di previsione basati su parametri misurabili come temperatura, errori di seek-lettura-scrittura, spin up/down, uptime, etc .. comunque modelli che hanno dimostrato tutta la loro limitatezza.
Nel caso degli SSD che sono completamente elettronici senza componenti elettromeccaniche, forse SMART potrebbe finalmente riuscire a fare quello che con gli hdd tradizionali non riesce a fare, proprio perche' controllare un sistema completamente elettronico da parte di un sistema elettronico e' molto piu' semplice.
...che tutto il tuo ottimismo verso la affidabilità sul lungo e lunghissimo termine degli S.S.D sia corroborato in futuro da riscontri oggettivi.
Grazie.
Marco71.
mail9000it
18-01-2009, 13:49
bene la concorrenza farà abbassare i prezzi velocemente...
Ma quale concorrenza ?
Se leggi bene l'articolo specifica che il produttore dei chip è Intel cioè uno dei quattro o cinque produttori mondiali di chip di memoria.
Kingston non ha e non ha mai avuto fonderie di proprietà, quindi compra chip Intel, li testa, li certifica e li rivende.
I prodotti Kingston sono buoni ma in questo caso la concorrenza per far abbassare i prezzi non esiste perchè il produttore è sempre Intel.
realista
18-01-2009, 16:22
ciao raga.....sono felicissimo il mio raptor da 150gb si è rotto dopo 3 anni ahahah !avevo il vecchio raptor da 150... e PER FORTUNA..sembra che non li producono piu quella serie.. quindi ora.. dopo vari mesi per asdpettare l'invio dell hd di garanzia...ORA HO IL MODELLO da 150gb nel form factor reale di 2.5 pollici.. messo in un dissipatore da 3.5!
è una scheggia.. latenza sui 7.1 ns e lettura MEDIA sui 97/98 mb/s!!!!qualcuno sa dirmi come mai nei grafici pero ci sono picchi bassi fino a 35mb/s? sono errori dei software di benchmark? uso hd tune e hd tach. esistono bench migliori? ah... ho il burts rate sui 209mb7s....ma ora non so perche.. dopo aveci inserito qualche programma.. non supero piu i 186 circa.. come mai? peccato... superare i 200 era ottimo
In realtà la struttura elettronica di un SSD nn ti permette di prevedere un guasto, anzi direi che proprio il comune deterioramento di una cella rende ancora meno fisica e piu' statistica la previsione di guasto.
Mi spiego meglio, sappiamo che "mediamente" una cella di un disco SSD SLC ha possibilità di rompersi dopo (uso valori pratici totalmente inventati) 100 scritture, ipoteticamente possiamo calcolare che il disco si romperà quindi dopo i primi 100 accessi. In realta' la logica di controllo del SSD tende ad utilizzare in maniera omogenea tutte le celle del disco per evitare di scrivere sempre sulle stesse. Questo chiaramente per aumentare la longevità del disco.
Ne ricaviamo che se il disco ha 100 celle e noi facciamo 100 scritture da 1bit al giorno, possiamo calcolare di avere un disco che ha una prospettiva di vita di 100 giorni.
Da qui la formula: (N° scritture max cella * N° di celle)/ N° di celle scritte in un ora = MTBF.
Il problema e' stabilire quante celle vengono scritte in un ora, ma dipende prettametne dal tipo di utilizzo, quindi il valore MTBF ha una valenza che e' del tutto indicativa.
Ma torniamo allo SMART, l'unica cosa che potremmo fare per avere dei dati indicativi su un SSD e applicare un contatore di utilizzo della cella piu' sfruttata, in modo da poter capire quanto siamo vicini al limite fisico prima di incorrere in qualche guasto. Ma nn dimentichiamoci che si parla di pura statistica, nulla puo' impedire ad un'altra cella di concludere la sua gloriosa vita prima del ipotetico massimo contatore di utilizzo, per molteplici cause che la giovinezza degli SSD attuali nn ci permette di stabilire con assoluta certezza.
Per concludere, il supporto SSD sebbene sia indubbiamente il futuro e sia potenzialmente molto piu' prestante di un HD, non ha sicuramente lo stesso grado di concreta affidabilità che possiamo stabilire per un disco tradizionale, attualmente ancora ci si basa piu' su calcoli statistici legati a valori tutt'altro che certi che su reali prove.
Dal mio personale punto di vista, l'SSD deve maturare ancora almeno 1 anno prima di diventare la scelta ideale per le applicazioni sia professionali che domestiche.
Ciao!
In realtà la struttura elettronica di un SSD nn ti permette di prevedere un guasto, anzi direi che proprio il comune deterioramento di una cella rende ancora meno fisica e piu' statistica la previsione di guasto.
Mi spiego meglio, sappiamo che "mediamente" una cella di un disco SSD SLC ha possibilità di rompersi dopo (uso valori pratici totalmente inventati) 100 scritture, ipoteticamente possiamo calcolare che il disco si romperà quindi dopo i primi 100 accessi. In realta' la logica di controllo del SSD tende ad utilizzare in maniera omogenea tutte le celle del disco per evitare di scrivere sempre sulle stesse. Questo chiaramente per aumentare la longevità del disco.
Ne ricaviamo che se il disco ha 100 celle e noi facciamo 100 scritture da 1bit al giorno, possiamo calcolare di avere un disco che ha una prospettiva di vita di 100 giorni.
Da qui la formula: (N° scritture max cella * N° di celle)/ N° di celle scritte in un ora = MTBF.
Il problema e' stabilire quante celle vengono scritte in un ora, ma dipende prettametne dal tipo di utilizzo, quindi il valore MTBF ha una valenza che e' del tutto indicativa.
Ma torniamo allo SMART, l'unica cosa che potremmo fare per avere dei dati indicativi su un SSD e applicare un contatore di utilizzo della cella piu' sfruttata, in modo da poter capire quanto siamo vicini al limite fisico prima di incorrere in qualche guasto. Ma nn dimentichiamoci che si parla di pura statistica, nulla puo' impedire ad un'altra cella di concludere la sua gloriosa vita prima del ipotetico massimo contatore di utilizzo, per molteplici cause che la giovinezza degli SSD attuali nn ci permette di stabilire con assoluta certezza.
Per concludere, il supporto SSD sebbene sia indubbiamente il futuro e sia potenzialmente molto piu' prestante di un HD, non ha sicuramente lo stesso grado di concreta affidabilità che possiamo stabilire per un disco tradizionale, attualmente ancora ci si basa piu' su calcoli statistici legati a valori tutt'altro che certi che su reali prove.
Dal mio personale punto di vista, l'SSD deve maturare ancora almeno 1 anno prima di diventare la scelta ideale per le applicazioni sia professionali che domestiche.
Ciao!
Vi sono altri parametri che il numero di cicli di programmazione/cancellazione che sono molto piu significativi. C'e' chi fa ben piu' che calcoli statistici: ecco una delle differenze tra un buon prodotto e uno scarso.
E' l'MTBF che ha ben poco senso.
In determinate condizioni al contorno la parte meccanica di un HDD e' il suo tallone d'achille e in questi casi lo rendono di fatto inutilizzabile.
L'SSD non ha bisogno di un anno per maturare: e' gia maturo da 12 anni ( i militari gia usavano queste soluzioni a quel tempo a costi insostenibili per altre applicazioni), anche se Seagate e il suo (ex) CEO la pensavano molto diversamente.
Il vero problema e' il costo: la memoria MLC aiuta ma e' confinata ad un uso primariamente consumer. Forse la soluzione boot SSD/ dati HDD e' quella che avra' successo almeno fino all'anno prossimo quando il prezzo si dovrebbe dividere ancora per due arrivando a essere accettabile.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.