View Full Version : A-Data, hard disk Solid State da 128 GB
Redazione di Hardware Upg
26-01-2007, 11:02
Link alla notizia: http://www.hwupgrade.it/news/storage/19927.html
Anche A-Data si fa avanti nel settore dei dischi rigidi Solid State, con una proposta davvero interessante
Click sul link per visualizzare la notizia.
gianni1879
26-01-2007, 11:06
bene finalmente un disco di capienza adeguata :)
Ragnonero01
26-01-2007, 11:07
Gran figata se saranno messi negli ultraportatili, ne aumenteranno di brutto le capacità.
Speriamo nei 160 e 320 Giga :D
:sbavvv: :sbavvv: :sbavvv: :sbavvv:
Pensando al prezzo :cry: :cry: :cry:
Se continua così tra un paio di anni ci si potrà permettere un 64 GB, in cui mettere OS e principali apps, non vedo l'ora ;)
sgabello
26-01-2007, 11:11
Beh... già il form factor di quello nella foto mi sembra un 2,5"...
Quindi come capienza potrebbe rimpiazzare senza problemi tutti gli attuali dischi dei notebook.
Tra l'altro i tempi di accesso ridotti, potrebbero agevolmente colmare quel gap prestazionale che esiste ora tra i 2,5" e i 3,5"...
Chissà cosa costa pero'...
PsyCloud
26-01-2007, 11:12
un disco da 120 gb da 2,5" non costa poco già adesso.
Non vedo l'ora di avere il solid state sul mio pc
Buona l'idea specialmente in ottica prestazioni, consumi e rumorosità. Auspicabile non solo sugli ultraportatili.
Paganetor
26-01-2007, 11:16
gironzolando su internet, pare che ci siano anche le versioni da 32 e 64 giga in formato 1.8"!
64 giga solid state di quelle dimensioni.... immagino la rivoluzione con le videocamere con HD integrato!!!! maggiore autonomia, sicurezza e, entro breve (spero! :D ) costi inferiori! ;)
Stimo un prezzo compreso tra i 1000 e i 1500$.
Fantastico in ogni caso, tra l'altro se avete notato è da 2.5" quindi praticamente già allineato alle omologhe unità a piatti.
Li faranno anche ATA?
Il mercato spinge moltissimo sul SATA quindi non credo onestamente che usciranno versioni PATA, soprattutto su 2.5" ed inferiori.
ilmaestro76
26-01-2007, 11:37
non pensiamo ora al prezzo...
se vengono presentati sempre più prodotti del genere, è ovvio qual'è l'indirizzo del mercato.
Ma in quanto a mtbf come stanno messi ora questi "dischi" ?
Stigmata
26-01-2007, 11:43
molto interessante!
MakenValborg
26-01-2007, 11:44
ma si conoscono le caratteristiche prestazioni/consumi di questi gingilli?
se sono molto veloci ne basta anche uno da 30 giga per programmi e sistema operativo, e poi lo si affianca con un tradizionale 7200 giri (parlo di desktop ovviamente)
non pensiamo ora al prezzo...
se vengono presentati sempre più prodotti del genere, è ovvio qual'è l'indirizzo del mercato.
Più che altro è importante considerare il processo produttivo, mi pare che attualmente i chip NAND siano arrivati a 45nm, non so se già in questo SSD s'implementino tali chip, ma immagino di sì altrimenti non si spiegherebbe la capienza così elevata. Mi piacerebbe conoscere le prestazioni sia di accesso ai dati che di lettura/scrittura.
Mister24
26-01-2007, 11:48
Ma in quanto a mtbf come stanno messi ora questi "dischi" ?
Ti quoto, le memorie attuali non permettono un elevato numero di letture/scritture. Questo sarebbe un limite nell'eventuale installazione di un sistema operativo.
MakenValborg
26-01-2007, 11:50
Ti quoto, le memorie attuali non permettono un elevato numero di letture/scritture. Questo sarebbe un limite nell'eventuale installazione di un sistema operativo.
azz..vero
Ma che significato dobbiamo dare alla parole? Sensibilmente vuol dire abastanza o al massimo "un bel po'", ma qui si parla del passaggio dai milli secondi ai micro secondi, sono 3 ordini di grandezza!!! Allora le nuove 8800gtx overcloccate di fabbrica hanno sempre prestazioni "sensibilmente " superiori alle 8800@ default per pochi punti percentuali in più!!!!!!1
Insomma non voglio fare i pignolo ma quel termine secondo me è completamente inadeguato per indicare la "rivoluzione" in corso in termini di potenziali prestazioni, IMHO
io mi accontenterei di un modello da 16 GB dove piazzare sistema operativo e programmi principali, affiancato ad un tradizionale, economico HD di grossa capacità dove mettere programmi secondari e files.
teniamo anche conto del fatto che su questi dischi il numero di scritture per ogni singola cella è limitato, sebbene sia molto elevato.
Ma che significato dobbiamo dare alla parole? Sensibilmente vuol dire abastanza o al massimo "un bel po'", ma qui si parla del passaggio dai milli secondi ai micro secondi, sono 3 ordini di grandezza!!! Allora le nuove 8800gtx overcloccate di fabbrica hanno sempre prestazioni "sensibilmente " superiori alle 8800@ default per pochi punti percentuali in più!!!!!!1
Insomma non voglio fare i pignolo ma quel termine secondo me è completamente inadeguato per indicare la "rivoluzione" in corso in termini di potenziali prestazioni, IMHO
Non confondere RAM con FLASH, sono due cose completamente diverse con prestazioni altrettanto differenti. La prima è volatile, la seconda no, non hanno praticamente nulla in comune a livello di architettura.
magilvia
26-01-2007, 12:02
Ottimo ottimo! Non credevo avrebbero avuto uno sviluppo così veloce, non vedo l'ora di averne uno tra le mie mani :D :D
scusate ma su questi gingilli nn ce limite di scritture_
"sensibilmente inferiore" e' nell'ordine di 1 a 100.
i chip per ora sono a 0.55, gli ultimi samsung.
per quanto riguarda la durata, e' solo un problema di logica interna:
ad oggi un OS chiede in lettura una miriade di file, innumerevoli volte per determinati processi.
basta adeguare il prefect degli OS (mantenere in ram le DLL piu' usate), e dotare questi dischi di particolari tecniche.
ad esempio basterebbe l'uso di una caches, come avviene sui dischi meccanici, che alla richiesta di lettura di una cella consenta poi con una adeguata logica di controllo la riscrittura in un'altra cella del disco, omogenizzando l'uso di tutte le celle disponibili sul disco.
in questo modo i 100.000 accessi garantiti (ilminimo dichiarato da questo tipo di memorie), permetterebbero tempi di usura delle singole celle adeguati per la durata della tecnologia (un disco ha una vita media di 3-5 anni, poi diventa obsoleto, non tanto usurato).
senza questo tipo di accortezza, per assurdo, ci sarebbero celle che consumerebbero le loro 100.000 possibilita' din pochi mesi d'uso, e celle che non sarebbero mai usate in tutta la vita del disco stesso!
c'e' da dire che per essere un 128GB, ha un costo al MB della meta' rispetto alle attuali memorie flash, e questa e' davvero una cosa strana.
eta_beta
26-01-2007, 12:13
x lucusta
quale è il suo prezzo ???
Con i sistemi operativi di MS non c'è pericolo che i dati vengano stivati sempre negli stessi posti :asd:
Il problema eventualmente è che nessuno farebbe più defrag per timore di andare a rovinare le celle :O
dsajbASSAEdsjfnsdlffd
26-01-2007, 12:19
il defrag su supporti di memorizzazione con accesso di questo tipo ha un senso prossimo llo zero...
si fa sui dischi dove avere informazioni sequenziali auemnta il transfer rate, visto che le strozzature sonod ate principalmente dai tempi di seek della testina ( meccanica) qau nonc'`e nulla che si muove, ha poca importanza ( o cmq molta molta meno) quanto frammentati siano i file.
infatti nn deve muovere nessuna testina per andare a cercare i dati.
iihi praticamente diskeeper chiude++
Fra_cool
26-01-2007, 12:20
bhé, il defrga non avrebbe senso, dato che la velocità d'accesso ad ogni indirizzo è identica ;)
Quoto la richiesta sul prezzo :)
Vista sembra che si stia adeguando a questo ordine di idee, con un nuovo prefect dei dati, mantenendo in ram una miriade di file, a scapito di un enorme consumo di ram (che potrebbe sembrare inutile, in ottica odierna).
non posso confermarlo, ma credo che anche la tecnica dell'uso di una memoria flash come chace di sistema sopperisca la logica di allocazione dei file su un disco flash, ordinando i singoli bit nella migliore posizione per quanto riguarda il "consumo" della cella, e non affidandosi all'allocazione standard della FAT del disco.
e' un'esperienza maturata con windows XP embedded, e l'uso di carte CF come solid disk: in quell'ambito tutto l'OS viene caricato dalla CF in un disco ram, e il disco viene aggiornato esclusivamente come backup alla chiusura dell'OS; mi sembra che ci sia un limite a 512MB per il disco ram..
eta_beta:
si parla di meno di 1500 euro (anche se ci credo poco).
ad oggi una CF con gli ultimi chip samsung (quelli montati anche sull'i-pod costa circa 100 euro per 4GB, ossia 25euro al GB;
128GB corrisponderebbero a 3200 euro totali.
In effetti non ci avevo pensato, il concetto di frammentazione sarebbe totalmente ininfluente ai fini prestazionali.
il defrag e' sempre necessario, ma in questo ordine di tecnologia dipende da altri fattori: non conta se il file e' sequenziale, ma se e' nello stesso chip di memoria.
una frammentazione su solid disk infulisce comunque molto meno rispetto ad un disco meccanico.
"...ad un prezzo tuttavia non ancora comunicato..."
non voglio pensare a cosa può presagire questa frase.
Comunque mi aspetto una bella mazzata iniziale.
vampirodolce1
26-01-2007, 12:33
e' un'esperienza maturata con windows XP embedded, e l'uso di carte CF come solid disk: in quell'ambito tutto l'OS viene caricato dalla CF in un disco ram, e il disco viene aggiornato esclusivamente come backup alla chiusura dell'OSSi vabbe' cosa succede se salta la corrente o qualche programma va in crash costringendomi a riavviare (reset)? Perdo tutto...
icoborg,
un sistema a 8GB ti viene a costare 512 euro, comprese spese di spedizione.
0.15ms di accesso
80mb/s di transfer rate
8GB di capacita
ottenibile con 2 CF da 4GB extreme IV in raid0 con adattatori addonics SATA to CF.
0.15ms di accesso
40MB/s di transfer rate
8GB di capacita
ottenibile con una sola CF da 8GB extreme IV e 1 adattatore addonics SATA to CF, al costo di 470+35+80$=468 euro comprese ss.
se prendi le extreme III c'e' uu risparmio del 33%, ma il transfer rate e' della meta'.
il problema e' solo dovuto all'assenza di una adeguato prefect di windows XP, che brucerebbe le CF nel giro di 1000 ore operative.
Ma le memorie CF in vendita non sono garantite "a vita"? Alcume mi sembra lo sono per 5 anni, quindi se si bruciano.... le si cambiano in garanzia :)
vampirodolce1,
windows XP embedded viene usato in ambiti diversi rispetto ad una workstation:
think client
set box (anche multimediali)
ruoter/nat
la perdita di dati e' ininfluente in questo ambito, in quanto o operi in desktop remoto su un server, o comunque il backup lo fai solo per aggiornare l'OS..
Rubberick
26-01-2007, 12:42
tra 2 anni? ma siamo fuori? :D
per le applicazioni server si comprano al volo... a meeeeee :D
aggiungo che c'e' un sensibile divario di prestazioni rispetto al dichiarato di un HDD meccanico:
i migliori hanno ransfer rate sequenziale da 90 mb/s, ma il reale transfer di un disco "in uso" e' variabile da 15 a 30MB/s; un disco solido mantiene praticamente invariato il transfer-rate, quindi i chip samsung hanno la possibilita' di competere adeguatamente rispetto ad un normale disco a 7200 da 3,5", per i 2,5" non c'e' storia.
PS
ci sono adattatori anche EIDE44pin to CF, proprio per sostituire gli HDD meccanici dei portatili con delle CF.
Mister24
26-01-2007, 12:44
Ma le memorie CF in vendita non sono garantite "a vita"? Alcume mi sembra lo sono per 5 anni, quindi se si bruciano.... le si cambiano in garanzia :)
La garanzia non copre danni da usura. :muro:
Questi dischi NON sono dischi FLASH ma NAND.
La tecnologia è diversa !! non si rischia di "bruciare" la cella in tempi "brevi".
Praticamente (dai calcoli SAMSUNG) si parlava di decine di anni prima di bruciare le celle (vado a memoria quindi non prendetelo per Vangelo).
Il controllo di scritture delle celle viene affidato al controller del disco per ottimizzare il tutto !!
La deframmentazione sarà utile solo per un più semplice recupero dei dati (§in caso di problemi) e non per le prestazioni
Mah, per valutare le reali prestazioni occorrerebbe fare tests specifici (tipo I/Ometer)
Questi dischi NON sono dischi FLASH ma NAND.
La tecnologia è diversa !! non si rischia di "bruciare" la cella in tempi "brevi".
Praticamente (dai calcoli SAMSUNG) si parlava di decine di anni prima di bruciare le celle (vado a memoria quindi non prendetelo per Vangelo).
Il controllo di scritture delle celle viene affidato al controller del disco per ottimizzare il tutto !!
La deframmentazione sarà utile solo per un più semplice recupero dei dati (§in caso di problemi) e non per le prestazioni
Forse ti sfugge che NAND e NOR sotto sottocategorie FLASH ;)
Quanto al discorso MTFB non ho proprio idea di quanto potrebbero durare :boh:
NO, non mi sfugge, ma con il termine Flash normalmente si intende (per errore) alle CF o alle chiavette USB.
Era per far capire che comunque sono due tecnologie differenti
icoborg,
un sistema a 8GB ti viene a costare 512 euro, comprese spese di spedizione.
0.15ms di accesso
80mb/s di transfer rate
8GB di capacita
ottenibile con 2 CF da 4GB extreme IV in raid0 con adattatori addonics SATA to CF.
0.15ms di accesso
40MB/s di transfer rate
8GB di capacita
ottenibile con una sola CF da 8GB extreme IV e 1 adattatore addonics SATA to CF, al costo di 470+35+80$=468 euro comprese ss.
se prendi le extreme III c'e' uu risparmio del 33%, ma il transfer rate e' della meta'.
il problema e' solo dovuto all'assenza di una adeguato prefect di windows XP, che brucerebbe le CF nel giro di 1000 ore operative.
no ma dicevo di ram proprio in relazione al discorso fatto da te..suglu embedded
NO, non mi sfugge, ma con il termine Flash normalmente si intende (per errore) alle CF o alle chiavette USB.
Era per far capire che comunque sono due tecnologie differenti
C'è un po' di confusione sull'argomento, ma credo che in futuro NAND fagociterà le altre tecnologie attualmente disponibili.
Lo spero
Io attualmente uso CF "industriali" (cioè con una quantità di cicli in scrittura doppio rispetto a quelle normali) sui PC ma monto ancora il vecchio (ma affidabile, veloce e sicuro !!) DOS e quindi la CF viene solo utilizzata in lettura (tranne per l'archiviazione degli errori cioè pochissime righe di teso al giorno).
Sto provando anche con win XP embedded ma senza il file di swap e con altre piccole limitazioni sulle riscritture dei file....
comunque W il DOS
io mi accontenterei di un modello da 16 GB dove piazzare sistema operativo e programmi principali, affiancato ad un tradizionale, economico HD di grossa capacità dove mettere programmi secondari e files.
teniamo anche conto del fatto che su questi dischi il numero di scritture per ogni singola cella è limitato, sebbene sia molto elevato.
mi inserisco nell'asta e per OS e sw mi accontento di 8gb! potrebbero accontentarmi :cry:
Beh... già il form factor di quello nella foto mi sembra un 2,5"...
Quindi come capienza potrebbe rimpiazzare senza problemi tutti gli attuali dischi dei notebook.
Tra l'altro i tempi di accesso ridotti, potrebbero agevolmente colmare quel gap prestazionale che esiste ora tra i 2,5" e i 3,5"...
Chissà cosa costa pero'...
quale gap prestazionale scusa? ci sono gli Hitachi 7K100 SATA per notebook a 7200rpm... io l'ho installato sul notebook... e non costano milioni :D costano come un normale hd per notebook...
cavolo ora si fa interessante la cosa, ma usciranno anche versioni più grandi per pc secondo voi?
Scusate, sono nuovo e vorrei capire cosa limita il riuso prolungato delle celle della memoria di cui si parla qui. E' detto che sono basate su porte Nand ( o Nor ?) che commutano da una condizione ad un'altra, che a me pare analoga a quanto succede in una CPU, che però non ha limiti reali nel tempo, cioè qualche 10^6 operazioni. Quante baggianatee ho detto? Grazie
Qui si parlava della durata di queste memorie:
http://www.hwupgrade.it/news/storage/19264.html
"...Appurati però i vantaggi finora esposti delle soluzioni a memoria statica e generalmente compresi dall'utenza, rimane il problema del numero militato di scritture, finora poco affrontato. Nessun imbarazzo da parte di Mr. Samsung, che evidentemente si aspettava la domanda. In passato ogni cella poteva essere "scritta" fino ad un massimo di 1000 volte, un valore non sufficiente a garantire l'affidabilità per utilizzi come disco di sistema. Allo stato attuale una SLC, single-level cell, può tollerare fino a 100.000 scritture. Questo dato non deve essere paragonato al MTBF dei dischi rigidi, in quanto il valore è per singola cella, non per forza interessata od ogni accesso al disco solid state.
Sfruttando invece celle MLC, Multi-level cell flash, il valore scende a 10.000 scritture, in ogni caso ritenute più che sufficienti. Mr. Barnetson spiega come i dischi allo stato solido utilizzino una tecnica di scrittura definita "wear leveling", che permette di distribuire uniformemente le scritture su tutte le celle, per evitare appunto che alcune vengano più utilizzate di altre e possano così massimizzare la vita media di tutta l'unità.
Viene portato l'esempio di una scrittura media di circa 120 MB all'ora; su un disco di 32 GB la tecnologia wear leveling farebbe in modo di impiegare ben 267 ore di utilizzo per scrivere ognuna delle singole celle. 267 ore di utilizzo quindi per fare aumentare l'ipotetico contatore di scritture massime di una singola unità. Tale contatore ha come limite massimo 100.000 per celle SCL e 10.000 per celle MLC. Servono dunque più di 26 milioni di ore per giungere a quota 100.000 scritture, e oltre 2,6 milioni di ore, in caso di celle MLC.
I primi modelli di dischi solid state sfrutteranno celle SLC, che verranno poi col tempo rimpiazzate da quelle MLC. Le prospettive dunque sembrano molto buone; ricordiamo in ogni caso che il futuro prevederà la coesistenza delle tecnologie solid state e a piatti rotanti, il secondo ottimizzato per garantire grandi capienze, il primo per prestazioni e affidabilità del sistema."
JohnPetrucci
26-01-2007, 20:49
Sono convinto che la strada tracciata sia quella giusta e cmq non si torna indietro.
Bisogna solo attendere gli anni necessari alla diffusione e all'abbassamento generale dei prezzi per poter finalmente eliminare la palla al piede degli Hard Disk meccanici, sopravvissuti per troppo tempo all'evoluzione tecnologica.
concordo, gli hd tradizionali è ora che cessino di esistere anche perchè le loro prestazioni non sono affatto migliorate, specialmente rispetto agli altri componenti dei computer, e sono sempre più il vero collo di bottiglia del sistema. considerando il continuo miglioramento delle memorie statiche credo proprio che nei prossimi anni ne vedremo delle belle!
icoborg:
win xp embedded e' un XP profondamente modificato;
questo non toglie che si possa creare una piattaforma simile al classico XP da cui in definitiva deriva, ma farlo diventare una WS non e' un lavoro semplice, come non e' stato far dimagrire XP per compiti specifici...
credo che ci sia un limite per il discoram su cui scaricare l'immagine dell'OS (e si, perche' prima bisogna scaricarla tutta sul disco ram e poi avviarla da questo, un processo piu' lungo di un normale avvio);
credo che il limite sia fissato in 512MB, anche se so' che ci sono driver per ramdisk anche da 4GB.
sul vecchio win98 l'ho fatto, su XP ci sto' provando da un po', e per ora sto' cercando di mischiare i file di avvio di embedded con quelli di XP classico.
in effetti la tecnologia wear leveling e' annessa ad un solid disk di ultima generazione come il samsung a 32GB, ma siccome Vista potra' far uso di normali pendrive USB che opereranno come una caches dati, e' presumibile che il servizio che si occupera' di questa operazione avra' una logica comparabile, visto che difficilmente sara' integrata sulle pendrive.
bisogna solo vedere se sia abilitabile anche su una card usata come disco di sistema.
eventualmente si potra' optare per un rai di CF veloci per caches di cospiqua capacita', coadiuvate da un disco meccanico (anche se sembra dovranno uscire a breve questo tipo di dischi, con caches flash da 128MB).
Scusate se insisto, ma a me, e forse a qualcun altro, interessa conoscere il fenomeno fisico che limita il numero di scritture per le celle di memoria SLC o MLC. Non le considerazioni in merito al miglioramento dichiarato da Samsung, ma quello che è alla base dello stesso (miglioramento..).
Attendo fiducioso, asssieme agli altri curiosi.
Era ora, non se ne poteva + di piatti che girano e testine, poi i bud sector non esisteranno+ ..... o funziona o si rompe stop. :D.
Ho paura che i comuni mortali dovranno aspettare almeno 2-3 anni prima di poterli acquistare a prezzo umano.:(
il fenomeno e' dovuto alla migrazione di meteriale, che a lungo andare produce un foro negli elementi conduttori ; in effetti la cella di memoria e' come un transistor con due gate, control e floating, in cui il secondo e' completamente isolato e posizionato tra' control e substrato; se e' presente una carica elettrica, in quanto il floating gate e' in pratica un condensatore, osia elemento metallico tra' strati isolanti, si ha l'effetto di un aumento della soglia di elettricita da applicare per aprire il contatto tra sopra e sotto il floating gate.
carica e scarica del floating gate provoca a lungo andare la migrazione fisica del materiale conduttore, provocando un foro che isola completamente il floating gate dal resto del transistor; a quel punto la cella diventa inutile, in quanto e' il floating gate che contiene la carica come un condensatore, percio l'informazione 0 o 1.
c'e' da dire che se una CPU a 0.65nm necessita di 1.3v per funzionare, l'energia applicata ad una cella da 0.55nm e' di oltre 3v; e' per questo che esiste il fenomeno della migrazione fisica del materiale conduttore.
comunque nel forum ci dovrebbe essere qualcuno che ti sappia spiegare esattamente cosa avviene e come funziona.
Non sono sicuro degli effettivi miglioramenti su computer dotati di una ram adeguata che porterebbe l'adozione di tali dischi. La virtualizzazzione della memoria dovrebbe limitare molto i vantaggi prodotti. Secondo me allo stato attuale il gioco non vale sicuramente la candela... Si vedrà quando i costi saranno più accettabili e le tecnologie più collaudate.
Poi sono fermamente convinto che in caso di crash di sistema o altri eventi indesiderati sia molto più sicuro l'utilizzo di hard disk tradizionali.
@locusta. Grazie delle spiegazioni, dalle quali ho saputo che "la memoria" è nella presenza o meno di una carica in un condensatore, e che il degrado è dovuto alla migrazione di materiale, fenomeno che è causa di guasti anche in altre situazioni, per costanti ed elevate temperature, se non ricordo male.
Non sono sicuro degli effettivi miglioramenti su computer dotati di una ram adeguata che porterebbe l'adozione di tali dischi. La virtualizzazzione della memoria dovrebbe limitare molto i vantaggi prodotti. Secondo me allo stato attuale il gioco non vale sicuramente la candela... Si vedrà quando i costi saranno più accettabili e le tecnologie più collaudate.
Poi sono fermamente convinto che in caso di crash di sistema o altri eventi indesiderati sia molto più sicuro l'utilizzo di hard disk tradizionali.
Hanno tempi di accesso almeno 100 volte migliori dei dischi attuali (SCSI 15K)e transfer-rate teoricamente illimitati (in teoria con ogni disco si può fare un raid 0 con un numero indefinito di elementi, e poi mettere ogni disco in una catena raid, un raid di raid :sofico: )
Come fai a dire che non portano miglioramenti ? :confused:
La velocità della memoria viene ottimizzata in modo che al processore appaia tutta memoria centrale. Questo non conosce nemmeno l'esistenza del hard disk (in parole povere). Con una adeguata memoria centrale la velocità dell'hard disk influisce poco sul normale lavoro di un computer. Miglioramenti certo si avranno in fase di boot e trasferimento dati. Ma durante il lavoro comune credo che non si noterà gran differenza per merito della virtualizzazione della memoria...
Contando che i dati resiederebbero cmq su altri supporti più capienti (almeno allo stato attuale) i vantaggi secondo me sarebbero limitati. Cosa diversa per quanto riguarda i notebook. Li i vantaggi sarebbero più evidenti, già solo per il fatto dei consumi decisamente inferiori.
e, scusa, la memoria lo conosce l'hard disk?
perche' se lo conosce e ci si trovera' ognitanto a dialogare, e dovra' comunque colloquiare con lui alla sua velocita'.
all'atto pratico, nell'esecuzione di un programma che fa' poco uso di dati storati, memoria e processore (e semmai scheda video, se si tratta di un gioco), sono gli unici limiti ad un'elaborazione, ma non tutti i programmi e non tutti gli ambiti sono di questa tipologia, anzi, in un PC casalingo, perche' a mio parere una workstation ed un server sono adibiti ad un singolo e preciso ambito e percio' ottimizzati per questo, fa' talmente tanto uso dell'HDD che, a parita' di altro HW, il rapporto prestazionale dell'intera macchina che usa un HDD 4200 del'97 ed un 7200 del 2007, ha un valore prossimo a 3 se non a 4, e stiamo parlando solo della sezione dischi.
immagina cosa possa fare un disco che ha almeno il doppio delle prestazioni del miglior disco di oggi (perche' un access time da 0.15ms e un transfer rate fisso a 40MB/s danno prestazioni che nemmeno uno SCSI 15000 riesce a fornire).
ho personalmente eseguito diversi test prestazionali sui dischi, di varia specie, dai dischi meccanici (raid 0-1-10-5 fino a 4 dischi in array, dai 3600 ai 15000rpm, da eide aSCSI, avendone in normale uso una dozzina, ed avendo occasionalmente tra le mani bei pezzi di meccanica, mi sono sbizzarrito nei test), ai dischi ram (anche in boot, usando macchine sia reali che virtuali), all'uso di drive ottici, e solo con i dischi a stato solido ho poca esperienza pratica (dovuti essenzialmente al costo), e ti posso confermare con assoluta certezza che in ambito desktop (oltre che WS e server in precisi ambiti di utilizzo come i database di una certa consistenza) le prestazioni del disco sono il vero "collo di bottiglia" di un sistema, e con 0.15ms di accesso ai dati, un aiuto c'e' di sicuro.
l'unico vero tallone d'achille per questa tecnologia e' la durata dell'HW, ma basta che supera i 4 anni di utilizzo medio, ed e' gia' che superato anche questo timore, in quanto un PC non dura piu' di 3 anni in modo efficace, per quella durata conviene cambiarlo, nemmeno aggiornarlo.
La velocità della memoria viene ottimizzata in modo che al processore appaia tutta memoria centrale. Questo non conosce nemmeno l'esistenza del hard disk (in parole povere). Con una adeguata memoria centrale la velocità dell'hard disk influisce poco sul normale lavoro di un computer.
la situazione che descrivi si avra' (forse, perche non se ne sta' parlando piu' da un paio di anni), con le RAM ferromagnetiche di IBM, RAM che consentono di conservare il dato in assenza di corrente, come per le flash, e primordiale modo di storare i dati nei primissimi computer.
in questo caso, con una dotazione decisamente adeguata (e con decisamente adeguata s'intende qualche centinaio di GB), non ci sarebbe piu' bisogno di un HDD, in qualsiasi forma sia, in quanto le stesse ram farebbero da storage, si avrebbe il vantaggio di un notevole risparmio elettrico, perche' l'energia servira' solo per leggere o scrivere il dato, si avranno avvii immediati, tipo l'avvio da ibernazione (dove oggi vendono mentenute in refresh le ram mentre il resto e' tutto spento), in quanto sia dati storati, sia dati nella ram saranno gia' disponibili, permettendo la continuazione del lavoro dallo stesso identico secondo di quando si era spento il pc.
ma.. non se ne parla piu'..
e se per un solid disk da 128GB oggi ti chiedono 4000 euro, per un set di RAM ferromagnetiche da qualche GB non oso pensare quanto sarebbero capaci di chiedere!
(forse e' per questo che non se ne parla piu'!)
quello che intendevo dire che pur essendo anche 1000 volte più veloci degli hard disk attuali non si avranno dei miglioramenti di prestazioni così strabilianti. Nel normale uso i dati vengono letti a blocchi e trasportati su memoria centrale e questo fa si che gli accessi al hard disk siano minimizzati.
es stupido:
Se ho 2 giga di RAM e mi metto a giocare a qualsiasi gioco gli accessi al hard disk saranno minimi, se ho un hard disk velocissimo non è che cambi chissà cosa. Stessa cosa vale per attività di lavoro che non richiedano spostamento di dati.
all'atto pratico, nell'esecuzione di un programma che fa' poco uso di dati storati, memoria e processore (e semmai scheda video, se si tratta di un gioco), sono gli unici limiti ad un'elaborazione, ma non tutti i programmi e non tutti gli ambiti sono di questa tipologia...
mi riquoto :)
in un multitasking spinto, piantarsi 10 secondi ogni tot azioni per un disco "lento" mi fa' venire una rabbia incomensurata; in un gioco, aspettare 5 secondi il caricamento dal disco di un nuovo quadro mi da' il tempo di rilassarmi.
...a 6 comunque incomincio ad innervosirmi...
Alpha Centauri
31-01-2007, 00:19
icoborg:
win xp embedded e' un XP profondamente modificato;
questo non toglie che si possa creare una piattaforma simile al classico XP da cui in definitiva deriva, ma farlo diventare una WS non e' un lavoro semplice, come non e' stato far dimagrire XP per compiti specifici...
credo che ci sia un limite per il discoram su cui scaricare l'immagine dell'OS (e si, perche' prima bisogna scaricarla tutta sul disco ram e poi avviarla da questo, un processo piu' lungo di un normale avvio);
credo che il limite sia fissato in 512MB, anche se so' che ci sono driver per ramdisk anche da 4GB.
sul vecchio win98 l'ho fatto, su XP ci sto' provando da un po', e per ora sto' cercando di mischiare i file di avvio di embedded con quelli di XP classico.
Senti, ma rispetto a win Xp live (spesso denominato usb/stick edition), cosa cambia con Xp embadded? Io volevo provarlo su pen drive (il live).
Hai info/consigli in merito?
Altra cosa: si parla sempre di maxi prestazioni degli SSD, soprattutto in seek, ma sulle pen drive non è affatto così: ad esempio spostando molti file piccoli la penna rallenta in modo pauroso (anche di 10 volte rispetto al trasferimento di file normali). Cosa cambia fra pen drive ed SSD? tipologia di memoria flash o controller differenti?
Perchè son anni che le pen drive non superano certe velocità, neppure in transfer rate, e neppure se dotate di architettura dual channel.
Senti, ma rispetto a win Xp live (spesso denominato usb/stick edition), cosa cambia con Xp embadded? Io volevo provarlo su pen drive (il live).
Hai info/consigli in merito?
praticamente poco, visto che BartPE e' un XP derivato da XP preistallation Edition e mischiato con embedded.
BartPE e' piu' "monolitico" e poco configurabile, proprio perche' deriva direttamente da XP, mentre con Embedded puoi configurare a piacimento i moduli che vuoi, ma non e' un lavoro semplice, date le dipendenze che hanno.
Altra cosa: si parla sempre di maxi prestazioni degli SSD, soprattutto in seek, ma sulle pen drive non è affatto così: ad esempio spostando molti file piccoli la penna rallenta in modo pauroso (anche di 10 volte rispetto al trasferimento di file normali). Cosa cambia fra pen drive ed SSD? tipologia di memoria flash o controller differenti?
Perchè son anni che le pen drive non superano certe velocità, neppure in transfer rate, e neppure se dotate di architettura dual channel.
controller differenti e chip differenti.
sulle PenDrive si usano, per prima cosa, chip non molto "attuali", ma decisamente piu' economici (anche se ci sono pendrive molto veloci, anche fino a 20MB/s), e per la latenza, e' dovuta principalmente dal controller, sia da parte PC, ossia quello USB, ma in particolar modo da parte pendriver, in quanto c'e' un piccolo chip che traduce i segnali per mandarli sull'interfaccia USB.
Le CF hanno un loro controller on-board generalmente piu' efficente, e quando li usi come driver con adattatori SATA o EIDE, usi un controller decisamente piu' prestazionale rispetto a l'USB.
oltrettutto non hanno limitazioni dovute all'assorbimento: ti ricordo che l'USB puo' alimentare al massimo 500mA a 5V, tolto l'assorbimento dei chip di memoria, ne rimane ben poco per il controller..
cmq molte latenze, soprattutto nello spostamento dei file, sono dovute al programma che si usa, explorer, che ha gli stessi problemi anche su normali dischi meccanici, dovuto essenzialmente al fatto che molti file significa molte modifiche alla FAT, e lui ne fa' una per volta.
Alpha Centauri
08-02-2007, 09:53
Molto molto interessante Locusta.....
Quindi dici che la versione che ho visto io è il progetto BartPE? Non pensavo. Tempo fa andai sul suo sito e lessi un po' di cose, per capire di cosa si trattasse. Ed in particolare dalla sezione license capii da cosa partiva Bart Pe per esser compilato; ma adesso non ricordo più benissimo come stavano le cose. La versione Embadded invece da dove salta fuori? E' prodotta da microsoft stessa o cosa? Ed in quali dispositivi si impiega? Usi industriali?
Per quanto riguarda le pen drive: conosco solo un dispositivo che da test empirici ha confermato di toccare, solo in condizioni specifiche (trasferimento di file grossi), i valori dichiarati nelle specifiche tecniche, e che si attesta sui 20 mb/s. Tutte le altre che ho visto sono ben lontane da quanto promettono nelle varie brochure. Ecco perchè ti chiedevo.
Ma non ne esistono di pen drive "pro" con chip e controller differenti? Se hai suggerimenti od esperienze personali postale pure (magari alla discussione linkata più sotto).
Sono anni che viaggiano su questi limiti, mntre i dischi migliorano sempre più.
Per il controller ed i file piccoli: avevo letto altrove che questi sono ottimizati per rendere meglio con certi file piuttosto che altri. Ma all'atto pratico risultano essere tutti lentissimi nel trasferimento di fiule piccoli. Interessante invece il discorso sul tipo di interfaccia implementata sul pc. In effetti l'usb benchè sia più diffuso (e xciò su un dispositivo fatto per essere usato su qualsiasi pc è l'ideal) dà all'atto pratico molte rogne. Speriamo che in futuro si facciano e si diffondano pen drive sata 2 con hot swap.
Per il filesystem: io portav l'esempio del trasferimento di file piccoli su pen drive proprio perchè su disco non noto grandi rallentamenti, nonostante appunto lì ci sia un disco meccanico che deve scrivee gli indirizi nel filesystem uno ad uno. Sui dischi ottici invece è vero, rallentano pure loro, ma non nella masterizzazione mi sembra.
Ps se vuoi fatti un giroQUI (http://www.hwupgrade.it/forum/showthread.php?t=907378&page=1&pp=40) , anche se non è proprio il tuo ambiente, perle di saggezza di questo tipo saranno benvenute :) !
Ahh guardate cosa ho trovato in giro:
http://www.tomshw.it/news.php?newsid=8540
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.