A-Data, hard disk Solid State da 128 GB

A-Data, hard disk Solid State da 128 GB

Anche A-Data si fa avanti nel settore dei dischi rigidi Solid State, con una proposta davvero interessante

di pubblicata il , alle 12:02 nel canale Storage
 
71 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
mutendb29 Gennaio 2007, 01:29 #61
Non sono sicuro degli effettivi miglioramenti su computer dotati di una ram adeguata che porterebbe l'adozione di tali dischi. La virtualizzazzione della memoria dovrebbe limitare molto i vantaggi prodotti. Secondo me allo stato attuale il gioco non vale sicuramente la candela... Si vedrà quando i costi saranno più accettabili e le tecnologie più collaudate.
Poi sono fermamente convinto che in caso di crash di sistema o altri eventi indesiderati sia molto più sicuro l'utilizzo di hard disk tradizionali.
brinco29 Gennaio 2007, 09:07 #62
@locusta. Grazie delle spiegazioni, dalle quali ho saputo che "la memoria" è nella presenza o meno di una carica in un condensatore, e che il degrado è dovuto alla migrazione di materiale, fenomeno che è causa di guasti anche in altre situazioni, per costanti ed elevate temperature, se non ricordo male.
GabrySP29 Gennaio 2007, 11:26 #63
Originariamente inviato da: mutendb
Non sono sicuro degli effettivi miglioramenti su computer dotati di una ram adeguata che porterebbe l'adozione di tali dischi. La virtualizzazzione della memoria dovrebbe limitare molto i vantaggi prodotti. Secondo me allo stato attuale il gioco non vale sicuramente la candela... Si vedrà quando i costi saranno più accettabili e le tecnologie più collaudate.
Poi sono fermamente convinto che in caso di crash di sistema o altri eventi indesiderati sia molto più sicuro l'utilizzo di hard disk tradizionali.


Hanno tempi di accesso almeno 100 volte migliori dei dischi attuali (SCSI 15K)e transfer-rate teoricamente illimitati (in teoria con ogni disco si può fare un raid 0 con un numero indefinito di elementi, e poi mettere ogni disco in una catena raid, un raid di raid )

Come fai a dire che non portano miglioramenti ?
mutendb29 Gennaio 2007, 11:57 #64
La velocità della memoria viene ottimizzata in modo che al processore appaia tutta memoria centrale. Questo non conosce nemmeno l'esistenza del hard disk (in parole povere). Con una adeguata memoria centrale la velocità dell'hard disk influisce poco sul normale lavoro di un computer. Miglioramenti certo si avranno in fase di boot e trasferimento dati. Ma durante il lavoro comune credo che non si noterà gran differenza per merito della virtualizzazione della memoria...
Contando che i dati resiederebbero cmq su altri supporti più capienti (almeno allo stato attuale) i vantaggi secondo me sarebbero limitati. Cosa diversa per quanto riguarda i notebook. Li i vantaggi sarebbero più evidenti, già solo per il fatto dei consumi decisamente inferiori.
lucusta29 Gennaio 2007, 17:06 #65
e, scusa, la memoria lo conosce l'hard disk?
perche' se lo conosce e ci si trovera' ognitanto a dialogare, e dovra' comunque colloquiare con lui alla sua velocita'.

all'atto pratico, nell'esecuzione di un programma che fa' poco uso di dati storati, memoria e processore (e semmai scheda video, se si tratta di un gioco), sono gli unici limiti ad un'elaborazione, ma non tutti i programmi e non tutti gli ambiti sono di questa tipologia, anzi, in un PC casalingo, perche' a mio parere una workstation ed un server sono adibiti ad un singolo e preciso ambito e percio' ottimizzati per questo, fa' talmente tanto uso dell'HDD che, a parita' di altro HW, il rapporto prestazionale dell'intera macchina che usa un HDD 4200 del'97 ed un 7200 del 2007, ha un valore prossimo a 3 se non a 4, e stiamo parlando solo della sezione dischi.
immagina cosa possa fare un disco che ha almeno il doppio delle prestazioni del miglior disco di oggi (perche' un access time da 0.15ms e un transfer rate fisso a 40MB/s danno prestazioni che nemmeno uno SCSI 15000 riesce a fornire).
ho personalmente eseguito diversi test prestazionali sui dischi, di varia specie, dai dischi meccanici (raid 0-1-10-5 fino a 4 dischi in array, dai 3600 ai 15000rpm, da eide aSCSI, avendone in normale uso una dozzina, ed avendo occasionalmente tra le mani bei pezzi di meccanica, mi sono sbizzarrito nei test), ai dischi ram (anche in boot, usando macchine sia reali che virtuali), all'uso di drive ottici, e solo con i dischi a stato solido ho poca esperienza pratica (dovuti essenzialmente al costo), e ti posso confermare con assoluta certezza che in ambito desktop (oltre che WS e server in precisi ambiti di utilizzo come i database di una certa consistenza) le prestazioni del disco sono il vero "collo di bottiglia" di un sistema, e con 0.15ms di accesso ai dati, un aiuto c'e' di sicuro.
l'unico vero tallone d'achille per questa tecnologia e' la durata dell'HW, ma basta che supera i 4 anni di utilizzo medio, ed e' gia' che superato anche questo timore, in quanto un PC non dura piu' di 3 anni in modo efficace, per quella durata conviene cambiarlo, nemmeno aggiornarlo.
lucusta29 Gennaio 2007, 17:19 #66
Originariamente inviato da: mutendb
La velocità della memoria viene ottimizzata in modo che al processore appaia tutta memoria centrale. Questo non conosce nemmeno l'esistenza del hard disk (in parole povere). Con una adeguata memoria centrale la velocità dell'hard disk influisce poco sul normale lavoro di un computer.


la situazione che descrivi si avra' (forse, perche non se ne sta' parlando piu' da un paio di anni), con le RAM ferromagnetiche di IBM, RAM che consentono di conservare il dato in assenza di corrente, come per le flash, e primordiale modo di storare i dati nei primissimi computer.

in questo caso, con una dotazione decisamente adeguata (e con decisamente adeguata s'intende qualche centinaio di GB), non ci sarebbe piu' bisogno di un HDD, in qualsiasi forma sia, in quanto le stesse ram farebbero da storage, si avrebbe il vantaggio di un notevole risparmio elettrico, perche' l'energia servira' solo per leggere o scrivere il dato, si avranno avvii immediati, tipo l'avvio da ibernazione (dove oggi vendono mentenute in refresh le ram mentre il resto e' tutto spento), in quanto sia dati storati, sia dati nella ram saranno gia' disponibili, permettendo la continuazione del lavoro dallo stesso identico secondo di quando si era spento il pc.
ma.. non se ne parla piu'..
e se per un solid disk da 128GB oggi ti chiedono 4000 euro, per un set di RAM ferromagnetiche da qualche GB non oso pensare quanto sarebbero capaci di chiedere!
(forse e' per questo che non se ne parla piu'!)
mutendb29 Gennaio 2007, 17:45 #67
quello che intendevo dire che pur essendo anche 1000 volte più veloci degli hard disk attuali non si avranno dei miglioramenti di prestazioni così strabilianti. Nel normale uso i dati vengono letti a blocchi e trasportati su memoria centrale e questo fa si che gli accessi al hard disk siano minimizzati.

es stupido:
Se ho 2 giga di RAM e mi metto a giocare a qualsiasi gioco gli accessi al hard disk saranno minimi, se ho un hard disk velocissimo non è che cambi chissà cosa. Stessa cosa vale per attività di lavoro che non richiedano spostamento di dati.
lucusta30 Gennaio 2007, 22:22 #68
Originariamente inviato da: lucusta
all'atto pratico, nell'esecuzione di un programma che fa' poco uso di dati storati, memoria e processore (e semmai scheda video, se si tratta di un gioco), sono gli unici limiti ad un'elaborazione, ma non tutti i programmi e non tutti gli ambiti sono di questa tipologia...


mi riquoto

in un multitasking spinto, piantarsi 10 secondi ogni tot azioni per un disco "lento" mi fa' venire una rabbia incomensurata; in un gioco, aspettare 5 secondi il caricamento dal disco di un nuovo quadro mi da' il tempo di rilassarmi.

...a 6 comunque incomincio ad innervosirmi...
Alpha Centauri31 Gennaio 2007, 01:19 #69
Originariamente inviato da: lucusta
icoborg:
win xp embedded e' un XP profondamente modificato;
questo non toglie che si possa creare una piattaforma simile al classico XP da cui in definitiva deriva, ma farlo diventare una WS non e' un lavoro semplice, come non e' stato far dimagrire XP per compiti specifici...
credo che ci sia un limite per il discoram su cui scaricare l'immagine dell'OS (e si, perche' prima bisogna scaricarla tutta sul disco ram e poi avviarla da questo, un processo piu' lungo di un normale avvio);
credo che il limite sia fissato in 512MB, anche se so' che ci sono driver per ramdisk anche da 4GB.
sul vecchio win98 l'ho fatto, su XP ci sto' provando da un po', e per ora sto' cercando di mischiare i file di avvio di embedded con quelli di XP classico.


Senti, ma rispetto a win Xp live (spesso denominato usb/stick edition), cosa cambia con Xp embadded? Io volevo provarlo su pen drive (il live).
Hai info/consigli in merito?

Altra cosa: si parla sempre di maxi prestazioni degli SSD, soprattutto in seek, ma sulle pen drive non è affatto così: ad esempio spostando molti file piccoli la penna rallenta in modo pauroso (anche di 10 volte rispetto al trasferimento di file normali). Cosa cambia fra pen drive ed SSD? tipologia di memoria flash o controller differenti?
Perchè son anni che le pen drive non superano certe velocità, neppure in transfer rate, e neppure se dotate di architettura dual channel.
lucusta31 Gennaio 2007, 17:00 #70
Originariamente inviato da: Alpha Centauri]Senti, ma rispetto a win Xp live (spesso denominato usb/stick edition), cosa cambia con Xp embadded? Io volevo provarlo su pen drive (il live).
Hai info/consigli in merito?[/QUOTE]

praticamente poco, visto che BartPE e' un XP derivato da XP preistallation Edition e mischiato con embedded.
BartPE e' piu' "
Altra cosa: si parla sempre di maxi prestazioni degli SSD, soprattutto in seek, ma sulle pen drive non è affatto così: ad esempio spostando molti file piccoli la penna rallenta in modo pauroso (anche di 10 volte rispetto al trasferimento di file normali). Cosa cambia fra pen drive ed SSD? tipologia di memoria flash o controller differenti?
Perchè son anni che le pen drive non superano certe velocità, neppure in transfer rate, e neppure se dotate di architettura dual channel.

controller differenti e chip differenti.
sulle PenDrive si usano, per prima cosa, chip non molto "attuali", ma decisamente piu' economici (anche se ci sono pendrive molto veloci, anche fino a 20MB/s), e per la latenza, e' dovuta principalmente dal controller, sia da parte PC, ossia quello USB, ma in particolar modo da parte pendriver, in quanto c'e' un piccolo chip che traduce i segnali per mandarli sull'interfaccia USB.
Le CF hanno un loro controller on-board generalmente piu' efficente, e quando li usi come driver con adattatori SATA o EIDE, usi un controller decisamente piu' prestazionale rispetto a l'USB.
oltrettutto non hanno limitazioni dovute all'assorbimento: ti ricordo che l'USB puo' alimentare al massimo 500mA a 5V, tolto l'assorbimento dei chip di memoria, ne rimane ben poco per il controller..
cmq molte latenze, soprattutto nello spostamento dei file, sono dovute al programma che si usa, explorer, che ha gli stessi problemi anche su normali dischi meccanici, dovuto essenzialmente al fatto che molti file significa molte modifiche alla FAT, e lui ne fa' una per volta.

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^