View Full Version : Dal Giappone un hard disk con 1 GB di memoria cache
Redazione di Hardware Upg
27-08-2007, 09:41
Link alla notizia: http://www.hwupgrade.it/news/storage/22306.html
L'azienda giapponese DTS propone un'alternativa ai sistemi Solid State, integrando nello chassis un tradizionale modulo memoria
Click sul link per visualizzare la notizia.
Alessio.16390
27-08-2007, 09:43
:eek: :eek: :eek:
Sti cinesi sono troppo avanti!
Ottimo così!
Giapponesi, c'è una bella differenza :D
canislupus
27-08-2007, 09:46
Mmm soluzione un po' strana, ma potenzialmente interessante. In pratica sfruttano 1 gb di normale ram come cache, ma prima o poi quello che è in cache dovrà essere scritto sull'hdd, altrimenti effetivamente si perderebbero tutti i dati.
Cmq sia bisogna capire quanto il chip sarà efficiente e soprattutto il costo di quessta soluzione ibrida...
soluzione quasi interessante ma uscita troppo tardi.. i ssd sono alle porte
Dumah Brazorf
27-08-2007, 09:52
Non potrebbero commercializzare la sola scheda in modo che ognuno la abbini alla ram e al disco fisso 3,5" che vuole?
Sarebbe molto + sensato.
canislupus
27-08-2007, 09:54
Sì ale, ma hanno dei costi estremamente esagerati per una capienza decente. Qui in ogni caso si parla di usare hdd da 2,5" che hanno dalla loro un consumo basso e sono abbastanza silenziosi. Diciamo che si può vedere come una soluzione intermedia che può aiutare ad avere una buona capienza unita a delle prestazioni superiori in termini di velocità. Poi bisognerebbe capire bene come opera questa cache nei confronti dell'hdd (perchè il chip dovrà in ogni caso fare da tramite).
giapponesi, non cinesi...i giapponesi sono il paese piu tecnologicamente evoluto al mondo, i cinesi stanno crescendo ma sempre muzzuni sono confronto a loro.
canislupus
27-08-2007, 09:55
Non potrebbero commercializzare la sola scheda in modo che ognuno la abbini alla ram e al disco fisso 3,5" che vuole?
Sarebbe molto + sensato.
Il disco fisso è da 2,5" credo per contenere consumi e fare in modo che tutto stia nella normale scocca di un 3,5. Quello che dici tu si potrebbe fare per assurdo con un controller sata o eide pci dotata di 1 Gb di ram onboard.
MiKeLezZ
27-08-2007, 09:57
bhe con la RAM che sta a 20 euro per 1GB, non molto diverso da quanto stanno le NAND, non è poi così stupido...
Ma che cosa inutile: i tempi di accesso "interessanti" sono quelli relativi alla lettura di dati che NON sono ancora nella cache del disco, non quelli appena scritti/letti, perché quelli sono anche nella cache del sistema operativo, che non li richiede agli HD. L'incremento di 100 volte è puramente teorico - nella pratica solo casi molto rari (ed anche banali, cioè la rilettura dei dati appena scritti/letti) possono avere questa ottimizzazione.
Quella RAM è meglio lasciarla al sistema operativo, che se vuole può usarla come cache, ma può anche farne un uso migliore.
La cache degli HD funziona bene solo quando gli HD devono eseguire contemporaneamente operazioni di scrittura e di lettura, per cui possono posticipare le write tenendo momentaneamente in cache i dati.
leddlazarus
27-08-2007, 10:06
basterebbe aggiungere uno slot sulla scheda madre per mettere un banco di ram, oppure come una volta aggiungere un controller su scheda che ospiti un tot di ram.
questo è carino perchè all'esterno è come un disco da 3,5 ".
pero' le capienze ne risentono
suupaa condensaa batteriiiiiiiii!!!!!
grandi giappi :D
"questo non serve a niente"....
"basterebbe mettere"....
"è meglio fare così"....
tutti espertoni ma secondo me solo coi benchmark si può giudicare.
canislupus
27-08-2007, 10:20
Priapo nessuno è esperto. Si fanno solo supposizioni. Poi come è stato detto non sempre i benchmark sono affidabili al 100%. Spesso anche l'esperienza diretta ha molto valore...
Cadavere
27-08-2007, 10:28
Impegnandsi a leggere un po' la didascalia che accompagna lo schema del disco osservereste la voce "スーパーコンデンサー"...
Non sono poi tanto sicuro che quei condensatori ad alta capacità siano affidabili nel tempo, ma almeno teoricamente sembrano dare una certa sicurezza nei confronti del fattore "e se manca la corrente?"
Inoltre le performance si possono propagare tranquillamente anche alle fasi di lettura dei dati in quanto il dispositivo è anche in grado di eseguire una efficiente deframmentazione in background.
Poi, si, sono sempre dell'idea che un sistema raid da 400 hd con 200gb di cache sia più veloce e capiente, ma le dimensioni del mio pc e del mio portafogli sono molto limitate...
P.S. Comunque ci sono anche un'infinità di prodotti "virtual disk" che possono aumentare le performance del pc in modo meno vistoso ma pur sempre significativo -sempre considerando specifiche applicazioni-.
leddlazarus
27-08-2007, 10:29
"questo non serve a niente"....
"basterebbe mettere"....
"è meglio fare così"....
tutti espertoni ma secondo me solo coi benchmark si può giudicare.
1) controller con banchi di ram come cache esistono da anni, specialmente i vecchi scsi sui server. quindi questa novità non la vedo proprio.
2) i dischi da 2,5 sono notoriamente costruiti per i portatili, e decisamente + lenti rispetto a quelli da 3,5.
quindi alla luce di cio' si puo' affermare che finchè i dati sono sul banco di ram allora la velocità c'è, ma appena si va sul disco, tra la lentezza propria del disco da 2,5 e la gestione del chip DST allora tutta sta velocità non la vedo proprio.
poi i dischi da 2,5 " sono + costosi e poco capienti
canislupus
27-08-2007, 10:34
Scusa cadavere, ma sai non tutti sono molto avvezzi alla lingua giapponese... cavolo dovrebbero metterla come 1 lingua straniera in Italia... con tutti i turisti che abbiamo... direi di mettere il giapponese e il cinese (in ottica futura)... :D
Cadavere
27-08-2007, 10:35
Mmmm... Meglio l'inglese?
http://www.estoragenetworks.co.jp/pdf/mcellcatalog_english.pdf
spunto interessante ...ma con molti ma:
il progetto mi sembra molto vulnerabile da parte dei più blasonati concorrenti... che non impiegherebbero molto ad adeguare la cache sui dischi rigidi tradizionali.
Inoltre con i dischi ibridi alle porte ....
effettivamente facendo 2 calcoli, nn so quanto convenga questa soluzione, in quanto
1. i dischi 2.5 arrivano finora a 320GB, e i costi nn sono proprio "leggeri"
2. la meccanica 2.5 non è performante quanto quella dei 3.5, anche con tutti gli accorgimenti, appena hai un pò di frammentazione lo noti.
3. nn ho ben capito se il modulo ram MANTIENE i dati allo spegnimento del PC (xkè se nn lo fa è già una ciofeca)
4. come già detto da qualcuno, questa soluzione permette di aiutare il disco SOLO nella ri-lettura di dati precedentemente immagazzinati nella ram, ma nn cambia la velocità di nuovi caricamenti
5. sappiamo tutti come evolve velocemente il mercato dei prodotti tecnologici: il SolidDisk sarà il futuro, con capienze enormi (è solo una questione di tempo (poco)), costi irrisori (dategli il tempo di diffondersi), latenze insignificanti, resistenza agli urti molto più alta dei classici hd meccanici, consumi ridotti
ergo.... in base a questo piccolo ragionamento, per me nn vale la candela;
attendo gli SSD ;)
3. nn ho ben capito se il modulo ram MANTIENE i dati allo spegnimento del PC (xkè se nn lo fa è già una ciofeca)
ergo.... in base a questo piccolo ragionamento, per me nn vale la candela;
attendo gli SSD ;)
non conserva i dati ... quindi serve solo a velocizzare l'accesso ai dati ...
Nevermind
27-08-2007, 10:55
A me par na strunzata.
I dischi da 2,5 poi sono molto meno preformanti normalmente.
LA velocità di scrittua alla fine è data dal disco puoi avere una cache grande come una casa ma il tempo è sempre quello.
La cache NON funziona solo come rilettura!!!
Il principio di funzionamento di una cache (p.es quella del micro) è di accedere ad un dato non troppo distante da quello richiesto. QUindi quando cerco un byte leggo tutta la pagina (p. es grande 8 byte).
Se questo è vero per i programmi, non lo è per i dati su memoria di massa!!!
E nessuno che pensa alla scrittura: questa sarebbe immediata!
CMQ soluzioni simili in passato si erano già viste, anche sui controller scsi raid.
Non so cosa succede con questo, ipotizzo però una piccola batteria tampone che continua a far girare il disco da 2e5" e lo ferma quando si può. (nessuno ci ha pensato?)
filippo1974
27-08-2007, 11:19
A parte che non ho ancora capito come questo affare intende gestire problemi di mancanza improvvisa di alimentazione, durante il trasferimento dei dati dalla RAM locale al disco fisso vero e proprio...
comunque questa soluzione nel suo complesso non è certo innovativa, né tantomeno "coraggiosa". Ricordo, qualche anno fa, che era uscito un "hard disk" che in realtà era una scheda con alcuni slot per SDRAM, più la logica di controllo e una batteria per tenere i banchi di RAM alimentati quando il PC era spento. L'interfaccia era una comune IDE.
Vantaggi: niente parti meccaniche, e quindi più performances e meno problemi di affidabilità.
Svantaggi: numero di slot limitati: considerate le limitate capacità dei singoli banchi di SDRAM del tempo, la capienza complessiva dell'aggeggio era estremamente limitata (qualche GB), almeno per gli standard degli HD odierni.
Ciao
Filippo
Michelangelo_C
27-08-2007, 11:23
Ok che può migliorare le prestazioni, ma non mi pare molto differente da dotare il PC di 1 GB di ram in più. A meno che non ci sia una batteria tampone che permette di scrivere i dati dalla cache del disco al disco stesso quando il PC viene spento.
Cadavere
27-08-2007, 11:43
Confermo quanto detto da raptus (tutto, compreso il piccolo circuito UPS inserito nel disco che nessuno ha neanche notato nel disegno).
Vorrei ricordare agli utenti distratti alcune "leggi" dei dischi fissi.
La velocità di un disco può essere aumentata o aumentando la densità dei dati scritti -più dati a parità di superficie o più piatti per aumentare la superficie-, o aumentando la velocità di rotazione del disco. Entrambe le soluzioni diminuiscono però la resistenza alle vibrazioni. Attualmente il modo più semplice per ridurre le vibrazioni di un di un disco è la sua miniaturizzazione, il che comporta anche a riduzione dei tempi di accesso -in un disco piccolo la testina deve fare un movimento minore-.
Quindi, analizzando queste problematiche abbiamo:
1) Dischi molto capienti -grande densità di dati e tanti piatti su cui scrivere- ma inesorabilmente LENTI.
2) Dischi poco capienti -principarlmente dovuta a piatti più piccoli- ma VELOCI.
3) Le vie di mezzo che tutti usiamo normalmente nei nostri pc "casalinghi" che di fatto non vanno bene per nessuno scopo.
I dischi da 2,5 sono lenti semplicemente perchè hanno la necessità di resistere MOLTO di più alle vibrazioni e devono consumare poco. Quindi l'alternativa migliore in quel caso è un disco che gira meno velocemente e sia più leggero (leggasi "meno piatti"). Una piccola ricerchina su internet vi permetterà di scoprire che i dischi da 15k da 3,5" hanno piatti con diametri solo leggermente superiori a quelli usati nei dischi per portatili.
Infine, vorrei chiarire che i "dischi novità" giapponesi di cui parla l'articolo esistono in commercio dal 2005. Il fatto che in europa non siano arrivati realmente è solo dipeso dal fatto che per noi tali dischi sarebbero inutili (con problematiche del tipo "dove posso mettere i miei 400gb di puntate dei simpson in un disco così piccolo???"). Il problema si potrebbe risolvere tranquillamente con un "economico" disco secondario da alcune centinaia di gb -magari esterno con interfaccia esata-.
P.S. Lo ridico perchè magari qualcuno nota solo i PS dei commenti: IL DISCO CONTIENE UN SISTEMA DI ALIMENTAZIONE AUSILIARIA CHE INTERVIENE IN CASO DI MANCANZA DI CORRENTE PER DARE IL TEMPO AL DISCO DI RIVERSARE LA CACHE SUL SUPPORTO MAGNETICO. I CONDENSATORI NEL DISEGNO OCCUPANO UN TERZO DEL DISCO, POSSIBILE CHE NESSUNO LI VEDE?
Venice39
27-08-2007, 11:48
Certo che hanno fantasia questi giapponesi, un uso alternativo dei vari componenti base del computer, ma alla fine cosa hanno creato la chimera del disco fisso?
Alla fine sempre un disco fisso è, quindi alla fine il rischio meccanico o magnetico c'e sempre, e un giga di ram non lo vai a sprecare per farci da tampone a 2,5 pollici, che gia di suo avra della cache a disposizione (8 o 16 mega).
Poi come soluzione è troppo stramba, il contenitore che racchiude tutta sta roba per smaltire il calore generata della ram, e dal disco fisso (e 2,5" arrivano a pieno carico a 55 -60 gradi), come si comportera? Nel contenitore saranno gia incluse due ventoline per ricambio dell'aria?
Certo è una gran bella idea, per smaltire i magazzini dai disci fissi da 40 e 60 giga ide a 4200 rpm.
Venice
simona_70
27-08-2007, 12:26
E' il classico uovo di colombo... unire i banale chip da 1gb ad un disco dotato classicamente di cache ridottissima (32mb è davvero poco)...
Ci penso da mesi e mi sono smepre chiesto come mai non ci aveva pensato nessuno.
Non sarebbe male anche una sorta di "adattatore" sul quale inserisci la ram che metti nel mezzo tra il sata della main board ed il sata sul disco fisso.
Chissà in RAI ZERO:
2Gb di ram ... LOL
Secondo me il sistema non è tanto stupido. Come ha evidenziato qualcuno, la cache non serve solo alla ri-lettura dei dati, ma anche per le operazioni di lettura-scrittura.
1GB per tutto quello che si può fare forse è poco, tuttavia questa soluzione permette di:
- Tenere sulla cache il file di paging, pronto per la lettura ed in coda per la scrittura (per sistemi con poca ram migliora le prestazioni in maniera esponenziale).
- Consentire un processo di deframmentazione in background. Purtroppo questo dipende dal FS, altrimenti integrando l'algoritmo di defrag nel chip dell'hd si avrebbe una memoria di massa SEMPRE ordinata quasi in tempo reale.
- Velocizzare le operazioni di lettura/scrittura contemporanee (vedi P2P)
- Nei GIOCHI, l'accesso ai grossi files contenenti le textures sarebbe praticamente immediato <- ri-lettura dei dati.
Per chi non può permettersi un SSD non mi pare tanto male...
- Tenere sulla cache il file di paging, pronto per la lettura ed in coda per la scrittura (per sistemi con poca ram migliora le prestazioni in maniera esponenziale).
:confused: se quel giga di ram non fosse confinato all'HD non ci sarebbe bisogno di usare il file di paging forse
- Consentire un processo di deframmentazione in background. Purtroppo questo dipende dal FS, altrimenti integrando l'algoritmo di defrag nel chip dell'hd si avrebbe una memoria di massa SEMPRE ordinata quasi in tempo reale.
la deframmentazione dipende dal filesystem.. molti filesystem moderni usano tecniche per limitarla e ci riescono anche piuttosto bene (NTFS non è mai stato all'avanguardia sotto questo aspetto)
:confused: se quel giga di ram non fosse confinato all'HD non ci sarebbe bisogno di usare il file di paging forse
Se usi un sistema windows, il file di paging viene creato in ogni caso circa pari al doppio della ram. Non ho provato un sistema da 4GB, ma Windows è strutturato così..
la deframmentazione dipende dal filesystem.. molti filesystem moderni usano tecniche per limitarla e ci riescono anche piuttosto bene (NTFS non è mai stato all'avanguardia sotto questo aspetto)
Lo so, infatti ho scritto "purtroppo dipende dal FS, altrimenti...". Se windows usasse algoritmi seri (vedi b+tree di reiser) non ci sarebbe bisogno del defrag :\
Volevano battere reiser4 con WinFS ma non son riusciti neanche a tirarlo fuori...
Se usi un sistema windows, il file di paging viene creato in ogni caso circa pari al doppio della ram. Non ho provato un sistema da 4GB, ma Windows è strutturato così..
in realtà è la dimensione massima che è circa il doppio della RAM (ma si può cambiare l'impostazione dal pannello di controllo), mentre la dimensione reale è molto minore (spero).
d'altra parte è vero che windows fa uso del file di paging anche quando c'è molta RAM libera (questione di politiche), ma io continuo ad essere dell'opinione che se quel giga di RAM fosse a completa disposizione del SO verrebbe sfruttato meglio
Lo so, infatti ho scritto "purtroppo dipende dal FS, altrimenti...". Se windows usasse algoritmi seri (vedi b+tree di reiser) non ci sarebbe bisogno del defrag :\
Volevano battere reiser4 con WinFS ma non son riusciti neanche a tirarlo fuori...
difficile che con WinFS volevano battere raiser4.. contrariamente a quello che si pensa WinFS non significa Windows FileSystem, ma bensì Windows Future Storage!
in sostanza il FileSystem sarebbe sempre stato NTFS in ogni caso, mentre WinFS doveva appoggiarsi ad esso per fornire un interfaccia al FS (il tutto era implementato facendo girare una versione light di MS SQL Server).
se proprio si può paragonare a nepomuk, con la differenza che nepomuk funziona :p
Dott.Wisem
28-08-2007, 14:16
Se windows usasse algoritmi seri (vedi b+tree di reiser) non ci sarebbe bisogno del defrag :\Veramente, anche NTFS usa i b+tree come struttura dati per mantenere le informazioni sui file memorizzati su disco. :D
La frammentazione del disco è un fenomeno fisiologico e non può essere eliminata. Al massimo si può tentare di arginarla usando delle tecniche di scrittura ritardata.
Comunque io, relativamente al discorso della frammentazione, non mi preoccuperei tanto dei file grossi frammentati in più pezzi (poiché qualunque file system decente, cerca di trovare il più piccolo insieme di blocchi contigui atti a contenere il file, prima di scriverlo), quanto piuttosto della miriade di file piccolini ai quali le applicazioni accedono spesso in maniera consecutiva, che, se salvati in posizioni molto distanti nell'hard disk, possono portare ad un degrado notevole delle performance. Anche in questo caso una scrittura ritardata può aiutare molto (si potrebbero considerare i file scritti a breve distanza di tempo l'uno dall'altro, come se facessero parte di un unico insieme di blocchi contigui).
Un altro problema è quello dello streaming: se io apro un file in scrittura e ci inizio a scrivere dentro, si pone il problema che il sistema operativo non sa a priori quanto sarà grande questo file (si pensi ad esempio all'acquisizione in real-time di un filmato). Come si deve comportare il sistema operativo, in questi casi? Quanti blocchi contigui deve allocare per il file, se non sa ancora quale sarà la sua dimensione finale? Anche in questo caso, una scrittura ritardata può aiutare molto, ma si tratta pur sempre di un palliativo.
Volevano battere reiser4 con WinFS ma non son riusciti neanche a tirarlo fuori...Stando a questi benchmark (http://linuxgazette.net/122/TWDT.html#piszcz), reiser4 non sembra poi sto granché...
se proprio si può paragonare a nepomuk, con la differenza che nepomuk funziona :p
Start date 01. January 2006
End date 31. December 2008
Come fa a funzionare se non è ancora uscito.
Start date 01. January 2006
End date 31. December 2008
Come fa a funzionare se non è ancora uscito.
perchè a ottobre (o meglio novembre) sarà incluso in kde4, ma già adesso funziona nella beta1 (solo che le applicazioni che lo usano si contano sulle dita di una mano di un falegname)
matteoscor89
28-08-2007, 19:40
lo ritengo inutile come hanno detto molti...quando avvii il pc questo non ti fa risparmiare, se apri un programma mai aperto prima il tempo non cambia(anzi peggiora visto che è un disco da 2,5)...
quindi me sembra na strunzata...
infopaperino
02-09-2007, 17:56
Ok.. ottimi questi hard disk ma, che sia una novità assoluta mi viene da ridere e anche hwupgrade ha preso una bella cantonata.
Seguo il programma "Certified by Intel" in Italia e sono già disponibili notebook che ho testato personalmente con questo Giga di memoria cache.
L'implementazione è hardware e funziona benissimo, le prestazioni sono ottime e i consumi di corrente del notebook si abbattono.
Cercate su Google con chiave "Verified by Intel®" filtrando le pagine in italiano... avrete le indicazioni dei notebook di cui vi parlo.
Più avanti i Giapponesi o gli Italiani ??? :-)
infopaperino
02-09-2007, 17:59
Ops... si è incasinata la scritta... la chiave era
Verified by Intel®
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.