View Full Version : SandForce: ecco le specifiche dei nuovi controller
Redazione di Hardware Upg
08-10-2010, 09:39
Link alla notizia: http://www.hwupgrade.it/news/storage/sandforce-ecco-le-specifiche-dei-nuovi-controller_33998.html
A distanza di pochi giorni dalle indiscrezioni emerse circa la terza generazione di SSD Intel, spuntano i dati della futura generazione di soluzioni SandForce
Click sul link per visualizzare la notizia.
Human_Sorrow
08-10-2010, 09:53
:eek: :sbav: :sbav:
Capisco ancora meno le politiche Intel invece, che era partita a razzo ... :(
Granuz88
08-10-2010, 10:02
Qualcuno mi spiega che cosa vuol dire questa frase?
"Impiegando infatti particolari algoritmi di compressione e di deduplicazione dei dati i nuovi controller saranno capaci di immagazzinare una rappresentazione dei dati e non i dati stessi."
Cioè? O_O'
Severnaya
08-10-2010, 10:14
invece di 0 e 1 ci saranno rappresentanzioni di Kandinsky :asd:
STUPENDI! finalmente potrò pensionare il mio R0 di velociraptor
AceGranger
08-10-2010, 10:14
Qualcuno mi spiega che cosa vuol dire questa frase?
"Impiegando infatti particolari algoritmi di compressione e di deduplicazione dei dati i nuovi controller saranno capaci di immagazzinare una rappresentazione dei dati e non i dati stessi."
Cioè? O_O'
presumo che il controller in automatico, comprimera sempre i dati, una sorta di zip hardware; ovviamente questo sara possibile solo con i dati comprimibili.
quindi non scrivedirettamente il dato, ma una rappresentazione compressa
alexander.z3ro2
08-10-2010, 10:15
AHAHHAAHAH!
"torni a casa dal lavoro, ti togli delle costose scarpe e le metti nella scarpiera. il giorno dopo, dopo esserti lavato e vestito, apri la scarpiera per prendere le scarpe, ma trovi solo un post-it con scritto sopra:
SUBJECT: Scarpe
DATA_ID: Abbigliamento
DATA_TYPE: Cuoio
COMMENT: Scarpe in cuoio nere, eleganti ma sportive, adatte a situazioni che richiedono una certa professionalità ma soluzione da non scartare in ambito casual
LAST_MODIFY: Ieri, 17.13
"
azmodan79
08-10-2010, 10:25
@alexander.z3ro2
Nah, quella rappresentazione con stringhe di testo è poco performante, una rappresentazione adeguata e lossles ti farebbe visualizzare la posizione relativa delle molecole di cuoio e la loro composizione a livello atomico!
St. Jimmy
08-10-2010, 10:44
ma, perdonatemi se dico una boiata, sbaglio o questi Sandforce sembrano decisamente meglio degli Intel? forse ciò è dovuto al SATAIII? :confused: a sto giro mi sa che prima di comprare l'SSD della Intel ci penso su parecchio
coschizza
08-10-2010, 11:19
Qualcuno mi spiega che cosa vuol dire questa frase?
"Impiegando infatti particolari algoritmi di compressione e di deduplicazione dei dati i nuovi controller saranno capaci di immagazzinare una rappresentazione dei dati e non i dati stessi."
Cioè? O_O'
il controller non usa sistemi di compressione convenzionali come per esempio prendere un file e fare la versione zip, usa sistemi diversi perche comprimere con sistemi classici è impossibile perche la potenza necessaria sarebbe ecessiva, quindi usa un sistema misto tra compressione e deduplicazione
quindi in una cella posso avere valori uguali a quelli di un altra cella, invece di comprimere le 2 celle uso la deduplicazione e dico che la cella 2 ha un puntatore verso la cella 1 , in questo caso quando vado a leggere i dati nella cella 2 non trovo i dati non trovo i dati compressi ma trovo un puntatore.
coschizza
08-10-2010, 11:24
ma, perdonatemi se dico una boiata, sbaglio o questi Sandforce sembrano decisamente meglio degli Intel?
basandoci sulla specifiche si ma quelle non vogliono dire molto visto che non sappiamo di che classe di dischi stiamo parlando e i prezzi
magari gli intel g3 sono dedicati al mercato consumer con costi ridotti mentre questi nuovi sandforce li troveremo su dischi di classe enterprise, in questo caso è normale che risultino piu veloci perche alla fine costeranno anche molto di piu
supertigrotto
08-10-2010, 12:42
e vedere quanto si rischia a perdere i dati o a corromperli.
Probabilmente hanno già fatto test su test prima di lanciarli ma al giorno d'oggi,ormai i test delle case sono superficiali,usano il cliente finale come beta tester.....
Attendimo la risposta di intel,non quella a breve come postville refresh ma le soluzioni nuove nuove che penso,non tarderanno ad arrivare.....
coschizza
08-10-2010, 13:11
e vedere quanto si rischia a perdere i dati o a corromperli.
Probabilmente hanno già fatto test su test prima di lanciarli ma al giorno d'oggi,ormai i test delle case sono superficiali,usano il cliente finale come beta tester.....
Attendimo la risposta di intel,non quella a breve come postville refresh ma le soluzioni nuove nuove che penso,non tarderanno ad arrivare.....
l'intel nel 2011 non ha previsto nulla che non sia postville refresh
si sa niente su quando vedremo fisicamente sta roba ?
coschizza
08-10-2010, 13:17
si sa niente su quando vedremo fisicamente sta roba ?
q1 2011 ma attenzione perche la serie SF-2000 è nata per il mercato enterprise quindi noi utenti non li vedremo mai se non nei listini
marchigiano
08-10-2010, 13:41
ma, perdonatemi se dico una boiata, sbaglio o questi Sandforce sembrano decisamente meglio degli Intel? forse ciò è dovuto al SATAIII? :confused: a sto giro mi sa che prima di comprare l'SSD della Intel ci penso su parecchio
i tuoi pensieri svaniranno quando annunceranno i prezzi :sofico:
Gia' gli attuali controller Sandforce, scrivono dati compressi e hanno una write amplification bassa (la famosa Durawrite/Duraclass)... qui sembra un raffinamento della tecnologia, già efficientissima nei SF-1200/1500.
Mentre in termini prestazionali, siamo a livelli impressionanti.
Beltra.it
08-10-2010, 19:55
ora si comincia un po' a ragionare....
adesso che aumentano le capacità!
mancano solo da sapere i prezzi...
ma probabilmente, non siamo ancora entrati nel vero periodo degli SSD.
Micene.1
10-10-2010, 10:35
la riduzione dei costi BOM :asd: ma dici la riduzione dei costi per i materiali :O
jmazzamj
10-10-2010, 15:27
Se dovessi aquistare oggi un SSD, non avrei dubbi, ne sceglierei uno porgettato a partire dal controller SandForce e penso che la mia scelta non varierà una volta che questi e gli Intel di 3ª generazione saranno sul mercato, 60k IOPS sui 4k casuali sono un'enormità, almeno sulla carta.
Mi rendo conto che quelle poche volte che posto muovo critiche a HWUpgrade, ma non pensavo che ora le vostre news fossero una traduzione parola per parola di articoli altrui. Con questo non me ne vogliano Corsini e collaboratori.
Saluti
Giuseppe Mazzeo
ArteTetra
10-10-2010, 23:14
Non è stato nemmeno scritto che qui si sta parlando di prodotti "enterprise & industrial".
gsorrentino
24-10-2010, 11:15
Qui si parla di compressione e deduplicazione, sistemi che si usano in ambito aziendale e che possono archiviare fino a 20 TB un un disco da 1 TB.
L'elettronica non deve essere particolarmente potente, ma il fw deve essere molto flessibile.
AceGranger
24-10-2010, 11:31
Qui si parla di compressione e deduplicazione, sistemi che si usano in ambito aziendale e che possono archiviare fino a 20 TB un un disco da 1 TB.
L'elettronica non deve essere particolarmente potente, ma il fw deve essere molto flessibile.
:confused: sono cose che in parte fa gia il controller attuale per il mercato consumer.
elettronica o meno, è lui il controller piu prestante attualmente in circolazione
gsorrentino
24-10-2010, 11:47
:confused: sono cose che in parte fa gia il controller attuale per il mercato consumer.
elettronica o meno, è lui il controller piu prestante attualmente in circolazione
Penso che non hai letto il mio post...
I controller attuali non effettuano deduplicazione....
Spieghiamo meglio il concetto:
Io faccio il backup (copia di tutti i file senza compressione) del mio pc win 7 su di una cartella PIPPO di nas con deduplicazione (20 GB).
Poi faccio un backup simile del pc di mia moglie win7 sullo stesso nas ma nella cartella PEPPE (25 GB).
Vado a vedere quanto spazio ho occupato sul nas con i due backup (in teoria 45 GB) e...sorpresa ne ho occupati 26 GB. Com'è possibile?
Semplice, il nas si è accorto che alcuni file (ad esempio quelli del SO) sono gli stessi, quindi li ha archiviati una sola volta. Poi su quello che rimane ha applicato una compressione leggera in stile winzip.
Forse adesso è più chiara la cosa...
AceGranger
24-10-2010, 14:21
Penso che non hai letto il mio post...
I controller attuali non effettuano deduplicazione....
Spieghiamo meglio il concetto:
Io faccio il backup (copia di tutti i file senza compressione) del mio pc win 7 su di una cartella PIPPO di nas con deduplicazione (20 GB).
Poi faccio un backup simile del pc di mia moglie win7 sullo stesso nas ma nella cartella PEPPE (25 GB).
Vado a vedere quanto spazio ho occupato sul nas con i due backup (in teoria 45 GB) e...sorpresa ne ho occupati 26 GB. Com'è possibile?
Semplice, il nas si è accorto che alcuni file (ad esempio quelli del SO) sono gli stessi, quindi li ha archiviati una sola volta. Poi su quello che rimane ha applicato una compressione leggera in stile winzip.
Forse adesso è più chiara la cosa...
:rolleyes:
tu hai scritto compressione e duplicazione
e io ti ho scritto
"sono cose che IN PARTE fa gia il controller attuale"
riferito al tuo post, nella lingua italiana, significa che il controller attuale non fa entrambe le cose da te accennate ma appunto una parte, ovvero delle 2 effettua la compressione
io non ho scritto che gli attuali fanno le duplicazione, lo hai dedotto tu non so da dove.
io ho letto benissimo tu mica tanto.
AleLinuxBSD
24-10-2010, 22:34
Sono curioso riguardo la riduzione dei prezzi prevista e riguardo al discorso affidabilità migliorata.
Se possibile, specie per quest'ultimo aspetto, pure facendo paragoni con i comuni hdd tradizionali.
AceGranger
24-10-2010, 22:39
Sono curioso riguardo la riduzione dei prezzi prevista e riguardo al discorso affidabilità migliorata.
Se possibile, specie per quest'ultimo aspetto, pure facendo paragoni con i comuni hdd tradizionali.
gia ora l'MTBF degli SSD è normalmente superiore a quello dei meccanici; l'MTBF dei migliori SSD consumer supera nettamente quello dei meccanici enterprise...
gsorrentino
14-12-2010, 09:56
:rolleyes:
tu hai scritto compressione e duplicazione
e io ti ho scritto
"sono cose che IN PARTE fa gia il controller attuale"
Esempio di compressione fatto da un controller?
AceGranger
14-12-2010, 10:22
Esempio di compressione fatto da un controller?
gli attuali Sandforce effettuano una compressione dei dati;
dai bench le prestazioni sono diverse in base al tipo di programma usato; con il Crystal mark esempio i Sandforce attuali danno valori piu bassi della norma perchè il programma usa un pattern che il controller non riesce a comprimere;
qui su anandtech danno anche la duplicazione oltre che la compressione dei dati...
http://www.anandtech.com/Show/Index/3667?cPage=2&all=False&sort=0&page=2&slug=oczs-agility-2-reviewed-the-first-sf1200-with-mp-firmware
"Inside the drive itself we find SandForce’s SF-1200 controller and no external DRAM. SandForce’s architecture attempts to solve the issue of NAND write amplification by simply writing less to the drive through compression/deduplication techniques. With less data to keep track of, a large external DRAM isn’t necessary - assuming the data being written is easily reduced by SandForce’s algorithms."
http://www.bit-tech.net/hardware/storage/2010/06/25/sandforce-ssd-test/1
"The SandForce drive controller approaches things very differently though, by removing the need for a DRAM cache (although there is a buffer inside the controller itself). This is done thanks to the controller’s DuraWrite technology, working like lossless, on-the-fly data compression to significantly reduce the amount of data actually written by the drive. SandForce is predictably reluctant to discuss how this is done, with even its drive partners unable to give us many details. "
e qua spiega appunto le prestazioni altalenanti dipendenti dalla compressione dei dati di partenza
"There are downsides to SandForce’s system though, most prominently the fact that when dealing with already heavily compressed or entirely random data, the drive’s performance drops due to its compression technology being unable to kick in. This introduces some variation in performance – if a game fully unpacks its textures and other data you’ll find a SandForce SSD to be very quick at loading levels, but if it only partially unpacks its files a SandForce SSD may not be noticeably faster than a decent Indilinx-powered drive."
gsorrentino
15-12-2010, 14:18
gli attuali Sandforce effettuano una compressione dei dati;
dai bench le prestazioni sono diverse in base al tipo di programma usato; con il Crystal mark esempio i Sandforce attuali danno valori piu bassi della norma perchè il programma usa un pattern che il controller non riesce a comprimere;
qui su anandtech danno anche la duplicazione oltre che la compressione dei dati...
http://www.anandtech.com/Show/Index/3667?cPage=2&all=False&sort=0&page=2&slug=oczs-agility-2-reviewed-the-first-sf1200-with-mp-firmware
"Inside the drive itself we find SandForce’s SF-1200 controller and no external DRAM. SandForce’s architecture attempts to solve the issue of NAND write amplification by simply writing less to the drive through compression/deduplication techniques. With less data to keep track of, a large external DRAM isn’t necessary - assuming the data being written is easily reduced by SandForce’s algorithms."
http://www.bit-tech.net/hardware/storage/2010/06/25/sandforce-ssd-test/1
"The SandForce drive controller approaches things very differently though, by removing the need for a DRAM cache (although there is a buffer inside the controller itself). This is done thanks to the controller’s DuraWrite technology, working like lossless, on-the-fly data compression to significantly reduce the amount of data actually written by the drive. SandForce is predictably reluctant to discuss how this is done, with even its drive partners unable to give us many details. "
e qua spiega appunto le prestazioni altalenanti dipendenti dalla compressione dei dati di partenza
"There are downsides to SandForce’s system though, most prominently the fact that when dealing with already heavily compressed or entirely random data, the drive’s performance drops due to its compression technology being unable to kick in. This introduces some variation in performance – if a game fully unpacks its textures and other data you’ll find a SandForce SSD to be very quick at loading levels, but if it only partially unpacks its files a SandForce SSD may not be noticeably faster than a decent Indilinx-powered drive."
Ecco, questa non centra niente con quello che dicevo io.
Qui si applica una compressione a livello di bit per ottimizzare le scritture.
Peccato che questa operazione non sia possibile applicarla sempre (come evidenziato da alcuni pattern) e, sopratutto, a fronte di uno specchietto sulla velocità, rende inaffidabile le prestazioni in scrittura. Oltretutto, adesso che mi hai fatto notare la cosa, non affiderò mai i miei dati ad un controller di questo tipo.
Praticamente in questo disco, se scrivo 1 giga di roba, occupo 1 giga di roba ma il controller se ha fortuna ne scrive solo il 60% dei bit dandomi l'impressione di velocità.
Quello di cui parlavo io viene effettuata a livello di settore. Quindi se scrivo 1 giga di roba, occupo dai 100 ai 500 mega di roba. Tanto per capirsi, se creo un file di 1 GB ripetendo un pattern di 512 byte sempre uguali, sul disco avrò occupato 2 KB invece di 1GB.
Tutta un'altra storia, anche come prestazioni....
AceGranger
15-12-2010, 15:25
Ecco, questa non centra niente con quello che dicevo io.
Qui si applica una compressione a livello di bit per ottimizzare le scritture.
Peccato che questa operazione non sia possibile applicarla sempre (come evidenziato da alcuni pattern) e, sopratutto, a fronte di uno specchietto sulla velocità, rende inaffidabile le prestazioni in scrittura. Oltretutto, adesso che mi hai fatto notare la cosa, non affiderò mai i miei dati ad un controller di questo tipo.
Praticamente in questo disco, se scrivo 1 giga di roba, occupo 1 giga di roba ma il controller se ha fortuna ne scrive solo il 60% dei bit dandomi l'impressione di velocità.
Quello di cui parlavo io viene effettuata a livello di settore. Quindi se scrivo 1 giga di roba, occupo dai 100 ai 500 mega di roba. Tanto per capirsi, se creo un file di 1 GB ripetendo un pattern di 512 byte sempre uguali, sul disco avrò occupato 2 KB invece di 1GB.
Tutta un'altra storia, anche come prestazioni....
quella è la duplicazione, la compressione è come se fose un zip continuo fatto in hardware dal controller, quindi va da se che se il dato che arriva è gia compresso lui fa poco nulla.
comunque il trattamento di soli dati incomprimibili è una eventualita remota, quasi impossibile, per utenze normali i sandforce attualmente sono i migliori SSD.
gsorrentino
15-12-2010, 16:05
quella è la duplicazione, la compressione è come se fose un zip continuo fatto in hardware dal controller, quindi va da se che se il dato che arriva è gia compresso lui fa poco nulla.
comunque il trattamento di soli dati incomprimibili è una eventualita remota, quasi impossibile, per utenze normali i sandforce attualmente sono i migliori SSD.
Io parlo dell'insieme delle cose. Negli articoli che hai postato vengono usate a livello di cella, non di byte.
Quindi io parlo di zip e deduplicazione di file e contenuti, tu parli di compressione di bit in una cella.
Tantè, che se zippassi il contenuto invece di un 1 GB di media archivierei 500 MB, sui dischi SSD con i controller da te citati, occupo 1 GB, ovvero 0 (zero) compressione, ma meno scritture.
AceGranger
15-12-2010, 16:21
Io parlo dell'insieme delle cose. Negli articoli che hai postato vengono usate a livello di cella, non di byte.
Quindi io parlo di zip e deduplicazione di file e contenuti, tu parli di compressione di bit in una cella.
Tantè, che se zippassi il contenuto invece di un 1 GB di media archivierei 500 MB, sui dischi SSD con i controller da te citati, occupo 1 GB, ovvero 0 (zero) compressione, ma meno scritture.
tu stai parlando di cose che non centrano con la news; la compressione usata da questi nuovi controller è quella di cui parlo io, che è semplicemente un miglioramento di quello che fanno il 1200 e il 1500, e lo scrivono pure nella news.
che ci siano altri modi migliori non ci piove, ma non è quello di cui parla la news.
sbudellaman
15-12-2010, 17:04
Per quanto mi riguarda le prestazioni erano già ampiamente soddisfacenti, con ste nuove specifiche mezzo gigabyte al secondo sono super-esagerati. Dato che nel versante prestazioni è già tutto praticamente perfetto (per adesso), l'unica cosa che mi interessa ora è migliorare IN PRIMO LUOGO la longevità dell'ssd, poi il prezzo.
ArteTetra
15-12-2010, 17:41
Bravo Sbudella, sono d'accordo.
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.