Entra

View Full Version : Samsung, hard disk solid state per tutti?


Redazione di Hardware Upg
17-11-2006, 11:06
Link alla notizia: http://www.hwupgrade.it/news/storage/19264.html

Don Barnetson, direttore marketing del settore NAND Flash in Samsung, dice la sua sui futuri dischi solid state e su come essi possano risultare davvero utili per l'utilizzo comune

Click sul link per visualizzare la notizia.

ekerazha
17-11-2006, 11:16
26.000.000 di ore sono quasi 3000 anni, direi che è un compromesso accettabile :D

xskull007
17-11-2006, 11:18
26 milioni di ore?
facendo un calcolo
26.000.000/24 (Acceso notte e giorno) = 1083333 giorni
1083333 / 365 = 2968 anni :|
cioe' piu che ottimo o no? :)

maxfl
17-11-2006, 11:20
26.000.000 di ore sono quasi 3000 anni, direi che è un compromesso accettabile :D

Anche 2.600.000 sono sempre 297 anni, potrebbe andar bene anche quello :D

Topol4ccio
17-11-2006, 11:20
Chiedo scusa ma non capisco. Prima nell'articolo si dice le single-level cell (SLC), possono tollerare fino a 100.000 scritture, mentre le Multi-level cell (MLC) solo 10.000 scritture. Dunque servono più di 26 milioni di ore per giungere a quota 100.000 scritture per le SLC, e oltre 2,6 milioni di ore per le MLC.

Perché allora in chiusura si dice che "i primi modelli di dischi solid state sfrutteranno celle SLC, che verranno poi col tempo rimpiazzate da quelle MLC"? Si comincia coi modelli più longevi per poi immettere sul mercato quelli più scarsi?

E poi a logica mi verrebbe da pensare che una "cosa multi-livello" regga più scritture di una "cosa a singolo-livello", sbaglio?

imayoda
17-11-2006, 11:26
Mi spiace ma, pur essendo un fermo sostenitore di samsung, diffido delle 10.000 scritture.. non credo alla bontà dello spalmare le scritture sulle varie celle. Basta una sola applicazione impazzita (programma malevolo?)per sollecitare swap e uccidere il disco anche se questo ha una sua logica hardware. Quindi finchè non si avrà una soluzione "mista" che usi la solid come memoria di predizione e i relativi sistemi operativi capaci di operare con tale tecnologia... NISBA! :muro:

Jonny32
17-11-2006, 11:29
Beh che dire... piu' veloci, piu' longevi e migliori dal pundo di vista del consumo... sembrano perfetti :D

Saranno fatti in tutti i tagli? 1.8", 2.5" e 3.5"?

ShinjiIkari
17-11-2006, 11:31
Io sarei piu' per i dischi ibridi, l'ideale sarebbe un disco ibrido con 16 o 32 GB di memoria statica per sistema e programmi (ovviamente il kernel deve saperlo, in caso contrario basterebbe partizionarlo manualmente), e tutto il resto con disco rotante da 5400 o 7200 rpm. Il tutto ovviamente in 2.5" e un prezzo accettabile. Pretendo troppo?

ekerazha
17-11-2006, 11:32
Anche 2.600.000 sono sempre 297 anni, potrebbe andar bene anche quello :D
Sicuramente

ekerazha
17-11-2006, 11:34
Mi spiace ma, pur essendo un fermo sostenitore di samsung, diffido delle 10.000 scritture.. non credo alla bontà dello spalmare le scritture sulle varie celle. Basta una sola applicazione impazzita (programma malevolo?)per sollecitare swap e uccidere il disco anche se questo ha una sua logica hardware. Quindi finchè non si avrà una soluzione "mista" che usi la solid come memoria di predizione e i relativi sistemi operativi capaci di operare con tale tecnologia... NISBA! :muro:
Già... ma il programma impazzito devi farlo andare per 300 anni

gi0v3
17-11-2006, 11:35
Chiedo scusa ma non capisco. Prima nell'articolo si dice le single-level cell (SLC), possono tollerare fino a 100.000 scritture, mentre le Multi-level cell (MLC) solo 10.000 scritture. Dunque servono più di 26 milioni di ore per giungere a quota 100.000 scritture per le SLC, e oltre 2,6 milioni di ore per le MLC.

Perché allora in chiusura si dice che "i primi modelli di dischi solid state sfrutteranno celle SLC, che verranno poi col tempo rimpiazzate da quelle MLC"? Si comincia coi modelli più longevi per poi immettere sul mercato quelli più scarsi?

E poi a logica mi verrebbe da pensare che una "cosa multi-livello" regga più scritture di una "cosa a singolo-livello", sbaglio?
no, perchè per farci stare più dati, devi scendere a compromessi...per fare un paragone alla buona, puoi vedere una slc come un dvd normale, e una mlc come un dual layer ( anche se probabilmente di layer ne avrà + di 2 la celletta della samsung) almeno nel caso del dvd, un dual layer pieno viene letto in media il doppio di volte di un dvd normale, visto che tiene il doppio di dati, ma la superficie esterna resta la stessa di un dvd normale, per cui ragionando proprio a spanne un dvd dual layer avrà una vita media (presa come tempo necessario per rovinare la superficie inferiore al punto da renderlo illeggibile )circa la metà di un dvd normale, probabilmente il problema sarà simile per questo tipo di celle...comunque le mlc hanno una durata stimata più che soddisfacente..e queste sono le previsioni di adesso, quasi di sicuro nel frattempo apporterano altre migliorie al progetto mlc..voglio un disco ibrido :D

Rubberick
17-11-2006, 11:42
^_^' ficata... quando escono? sto gia' mettendo i soldi da parte per implementarne un raid per i miei servers...

dsajbASSAEdsjfnsdlffd
17-11-2006, 11:42
ma soprattutto un disco normale senza programma impazzido dura cmq di meno di 300 anni per via delle parti meccaniche e del decadimento dei supporti magnetici, quindi proprio un osservazione del piffero :P
(senza offesa)

Keltosh
17-11-2006, 11:44
Beh, la teoria è interessante. 120 MB/ora sono è vero una media bassina, ma anche mettendo 4 GB all'ora di media sono 80000 ore, cioè 3333 giorni, cioè 10 anni di utilizzo continuo.

Mi sorge tuttavia un diverso dubbio. Ne so poco di memorie allo stato solido, onestamente. Però non riesco a togliermelo dalla testa. Ma se questa tecnologia distribuisce un file da 100 MB in 1.500.000 frammenti... i tempi di lettura non ne risentono?

Capisco che non ci sia nessun disco rotante, ma i dischi a stato solido hanno comunque lo stesso tempo di lettura per dati così frammentati?
Attendo le vostre risposte informate :)

ShinjiIkari
17-11-2006, 11:45
Quello dipende dal file system.

Keltosh
17-11-2006, 11:48
Quello dipende dal file system.

non capisco perchè debba dipendere dal file system. A me sembra un problema meccanico. In un hard disk normale, i file frammentati sono più lunghi da leggere perchè la testina si deve spostare tra i frammenti.

Invece in uno solid state non ho idea dicome funzioni. Questo è il motivo per cui chiedo

MiKeLezZ
17-11-2006, 11:48
Chiedo scusa ma non capisco. Prima nell'articolo si dice le single-level cell (SLC), possono tollerare fino a 100.000 scritture, mentre le Multi-level cell (MLC) solo 10.000 scritture. Dunque servono più di 26 milioni di ore per giungere a quota 100.000 scritture per le SLC, e oltre 2,6 milioni di ore per le MLC.

Perché allora in chiusura si dice che "i primi modelli di dischi solid state sfrutteranno celle SLC, che verranno poi col tempo rimpiazzate da quelle MLC"? Si comincia coi modelli più longevi per poi immettere sul mercato quelli più scarsi?

E poi a logica mi verrebbe da pensare che una "cosa multi-livello" regga più scritture di una "cosa a singolo-livello", sbaglio?
E' molto semplice.
SLC costa di più, MLC costa di meno.
Quando il prodotto sarà immesso nel mercato di massa provvederanno ad usare la soluzione meno costosa e più redditizia.

10.000 scritture sembrano tante, ma i calcoli di Samsung sono chiaramente sbagliati, e a loro favore.. Ogni update del disco significa cancellare LE celle di memoria (perchè non sono selezionabili singolarmente ma a blocchi) e riscriverle. Nel campo reale credo siano 2-3 anni di durata.

Bulz rulez
17-11-2006, 11:54
Detto francamente a me basterebbe anche un hd ke duri 50 anni...immaginate un bel raid 0 a zero decibel!

zancle
17-11-2006, 12:00
Anche 2.600.000 sono sempre 297 anni, potrebbe andar bene anche quello :D
il conto è volutamente sbagliato. in quanto il disco in questione non è vuoto.
ma normalmente pieno almemo per 3/4 quindi la spalmatura delle varie riscritture avviene su molte meno celle.
quindi il tempo di guasto dipende da quanto pieno è normalmente il disco.

ShinjiIkari
17-11-2006, 12:03
zancle ha ragione, in questo caso credo siano favoriti i sistemi che usano un file per lo swap anziché una partizione, con il file ad ogni boot si sceglie una porzione di disco a caso, con la partizione è fissa. Quindi con la partizione si finisce per scrivere sempre sugli stessi settori il che non fa benissimo.

supermauri83
17-11-2006, 12:06
26.000.000 di ore sono quasi 3000 anni, direi che è un compromesso accettabile :D

detto così sembra fenomenale, calcolando però che quei 26 milioni vengono calcolati su una scrittura media di 120 mb l'ora cambia di molto la situazione. (chiedo scusa se era già stato detto ma non ho ancora letto tutti i messaggi)

ekerazha
17-11-2006, 12:40
detto così sembra fenomenale, calcolando però che quei 26 milioni vengono calcolati su una scrittura media di 120 mb l'ora cambia di molto la situazione. (chiedo scusa se era già stato detto ma non ho ancora letto tutti i messaggi)
Vero... comunque 120mb all'ora sono 2.8 GB al giorno, tutti i giorni per 3000 anni... forse può essere scoraggiante solo per chi fa editing video pesante tutti i giorni (o pochi altri campi) ma in ogni caso dubito che i dischi rigidi "meccanici" di chi fa "editing pesante" abbiano una vita molto più lunga...

Bulz rulez
17-11-2006, 12:46
inoltre nn stiamo considerando oltre alla resistenza "fisica" dei piatti magnetici degli attuali hd, le variabili dettate ad esempio dalla rottura del motore, testina, cazzi e mazzi... :p

bist
17-11-2006, 12:51
"Servono dunque più di 26 milioni di ore per giungere a quota 100.000 scritture, e oltre 2,6 milioni di ore, in caso di celle MLC. "

Ok però questi 26 milioni di ore sono necessarie per distruggere *tutte* le celle dell'hd da 32 GB. Inoltre il presupposto di scrivere il disco in modo omogeneo cade non appena il disco è mezzo pieno di dati che non si elimineranno...

Certo che 120 MB/s di *scrittura* media sono tanti! Nell'uso casalingo non si arriva a tanto. Cioè vorrebbe dire scaricare completamente un film ogni 6 secondi, per capirci...

Mic.C.
17-11-2006, 12:53
Questi dischi sembano una vera rivoluzione in positivo!

Anche se dourassero "solo" 3 anni con uso continuato 24/24 e' gia un passo in avanti,i normali dischi usati 8 ore al giorno 5 giorni la settimana come dischi di sistema difficilmente superano l'anno di vita,per ora l'unica alternativa e' l'scsi(che ho attualmente perche' ne avevo abbastanza di mandare hd in garanzia),sui dischi ata/sata senza backup frequenti o raid1 i dati sono molto a richio se si sfrutta un po' il pc!

magilvia
17-11-2006, 12:56
Sono molto contento che abbia migliorato l'affidabilità. Non vedo l'ora di buttare dalla finestra questi arcaici dischi rotanti. E spero anche che per "questioni di marketing" non si limitino a venderci ibridi inutili!

ShinjiIkari
17-11-2006, 12:56
Non esageriamo, a me sono durati tutti una media di 4-5 anni.

ShinjiIkari
17-11-2006, 12:57
x magilvia:

Perché non ti piacciono gli ibridi? Io preferisco un disco ibrido che mi permetta di registrare 200GB di dati costando poco e tenendo il sistema in memoria statica, piuttosto che spendere il doppio per avere solo 64GB (tutta statica).

ShinjiIkari
17-11-2006, 13:03
Io sono a favore degli ibridi, sono a favore di qualunque cosa aiuti ad accelerare il processo di evoluzione, sinceramente non se ne puo' piu coi dischi da 2.5" 7200 che arrivano a 100GB, una capacità veramente ridicola, oppure far girare il sistema in un 5400 per potera arrivare a BEN 160GB. Devono darsi una mossa.

ekerazha
17-11-2006, 13:05
"Servono dunque più di 26 milioni di ore per giungere a quota 100.000 scritture, e oltre 2,6 milioni di ore, in caso di celle MLC. "

Ok però questi 26 milioni di ore sono necessarie per distruggere *tutte* le celle dell'hd da 32 GB. Inoltre il presupposto di scrivere il disco in modo omogeneo cade non appena il disco è mezzo pieno di dati che non si elimineranno...

Certo che 120 MB/s di *scrittura* media sono tanti! Nell'uso casalingo non si arriva a tanto. Cioè vorrebbe dire scaricare completamente un film ogni 6 secondi, per capirci...
Guarda che sono 120MB all'ora non al secondo :D

Comunque per il problema dei dati "che non si eliminano" potrebbero inserire un controllo (non dovrebbe essere nemmeno molto difficile) che tiene conto dei dati salvati nelle varie celle e provvede periodicamente a spostare i dati che sono memorizzati da molto tempo sulle celle più usurate.

bist
17-11-2006, 13:11
Guarda che sono 120MB all'ora non al secondo :D
Lol ho letto male :D

Comunque per il problema dei dati "che non si eliminano" potrebbero inserire un controllo (non dovrebbe essere nemmeno molto difficile) che tiene conto dei dati salvati nelle varie celle e provvede periodicamente a spostare i dati che sono memorizzati da molto tempo sulle celle più usurate.
Spostando i dati però si scrivono sia le celle che erano vuote, sia quelle che erano occupate... sbaglio?

DevilsAdvocate
17-11-2006, 13:22
Tutto questo E' FALSO. Ogni volta che muovete un file, cambiate nome ad una
directory o che altro, il filesystem FAT/NTFS riscrive su una piccola area di
celle (simile all'MBR, contiene l'indice di files/cartelle). In questa maniera
quasi ogni operazione che fate dovete togliere 1 da quel 10'000, ed in
questa maniera 10'000 riscritture non sono sufficenti per un hard disk,
a meno di essere disposti a vederlo "fallire" in un paio di anni!!!!!!!!!!

Il discorso delle 10'000 riscritture puo' valere solo per supporti di
backup, in cui la scrittura avviene in maniera piu' uniforme, ma gia'
il concetto di "memoria virtuale sull'hard disk" fa saltare tutto il
ragionamento! (in pratica il problema e' che le riscritture non avvengono
mai uniformemente sulle celle, ma alcune sono sottoposte ad uno stress
molto maggiore delle altre, e nessuna tecnica di "wear leveling" puo'
evitarlo).

ShinjiIkari
17-11-2006, 13:30
Non è proprio cosi', esiste apposta la cache del disco che gestisce il sistema operativo per le piccole modifiche, il motivo per cui si perdono dati quando va via la corrente.

ekerazha
17-11-2006, 13:30
Lol ho letto male :D


Spostando i dati però si scrivono sia le celle che erano vuote, sia quelle che erano occupate... sbaglio?
Sarebbe un compromesso... complessivamente durerebbero un po' meno, ma eviterebbe che determinate celle si usurino troppo rapidamente (se il 30% delle celle è da buttare non ha molto senso che l'altro 70% sia perfetto... meglio avere un 100% di celle non perfette ma comunque sane ed utilizzabili).

Dr3amer
17-11-2006, 13:31
Tutti sapientoni in sto forum -.-
Ma avete una minima idea di come funziona il wear leveling?
Siete nel team di progettazione samsung?

.... ma perche' non andate a leggervi un po' di wiki

http://en.wikipedia.org/wiki/Wear_levelling


bha

Van Helsing
17-11-2006, 13:31
Si sa quali saranno i prezzi più o meno?

ekerazha
17-11-2006, 13:32
Tutto questo E' FALSO. Ogni volta che muovete un file, cambiate nome ad una
directory o che altro, il filesystem FAT/NTFS riscrive su una piccola area di
celle (simile all'MBR, contiene l'indice di files/cartelle). In questa maniera
quasi ogni operazione che fate dovete togliere 1 da quel 10'000, ed in
questa maniera 10'000 riscritture non sono sufficenti per un hard disk,
a meno di essere disposti a vederlo "fallire" in un paio di anni!!!!!!!!!!

Quello che dici può essere valido solo per determinate operazioni come la cancellazione o lo spostamento fra directory dello stesso disco, ma non vale per il resto (es. salvo dati "ex novo" o li modifico).

Cybor069
17-11-2006, 13:32
Secondo me Samsung ha fatto certamente un discorso a suo favore ma dubito che abbia fatto un errore così madornale nel calcolare l'usura dei dischi, non credo che intendano vedersi tornare indietro tutti i dischi dopo 1/2 anni dalla loro vendita.

Io suppongo che quel "wear leveling" si ponga ad un basso livello per cui ogni volta che i dati devono essere scritti, lui li mette dove vuole, conpreso l'indice dei file del NTFS, in pratica la partizione sarebbe solo virtuale e non fisica come accade oggi.

soft_karma
17-11-2006, 13:33
Non so voi come ragionate, ma per me quando una sola cella di un HD salta per me è tempo di sostituire il disco e tenere quello solo per dati poco importanti. Quindi il discorso che farò all'uscita dei solid state è: "per quanto tempo me lo garantite senza celle bruciate?" E poi si valuta il rapporto qualità/prezzo. Penso comunque che ci vorranno ancora un po' di anni affinché diventino una realtà consumer

DevilsAdvocate
17-11-2006, 13:33
Non è proprio cosi', esiste apposta la cache del disco che gestisce il sistema operativo per le piccole modifiche, il motivo per cui si perdono dati quando va via la corrente.
?????? la cache ridurrebbe a 1 al giorno le riscritture se tu poi non
facessi alcuna altra operazione oltre ad aggiornare l'indice delle cartelle.
Pero' in un uso normale dell'hard disk la cache viene svuotata e
ririempita centinaia di volte in un ora (salvataggi temporanei, modifiche
di piccoli files, etc.etc.). L'unica soluzione sarebbe mantenere tutto
l'indice in cache fino allo spegnimento del PC, ma in molti ambiti non e'
una soluzione proponibile (se salta la corrente o crasha il pc perdi tutti
i salvataggi effettuati da quando lo hai acceso,fossero anche 8 ore
prima, e questo non e' accettabile ne' nelle aziende ne' per i creativi ne'
per i gamers), diminuendo il tempo di salvataggio della cache (es: un
salvataggio ogni mezz'ora, che e' gia scomodo) l'MBTF diminuisce
(nell'esempio avresti MBTF di 5'000 ore.... :rolleyes: e senza contare
che tutte le volte che spengi e riaccendi "bruci" un'ora ).
Ne consegue che 100'000 riscritture diventano forse accettabili,
10'000 non lo sono per nessuno.

Daniele Nobile
17-11-2006, 13:36
Comunque non ho capito perchè ritenete che 3000 anni sia un tempo sufficientemente lungo... voglio dire
"Mai porre limiti alla divina provvidenza!" :P :mrgreen:

ShinjiIkari
17-11-2006, 13:44
In effetti ci sono molti fattori da considerare, ad esempio coi filesystem journaled credo che una piccola parte di disco che si occupa di mantenere la consistenza del fs stesso, venga aggiornata praticamente di continuo e risulterebbe una parte critica visto che non viene spostata mai. Mi prendo un po' di tempo per pensarci bene.

DevilsAdvocate
17-11-2006, 13:45
Comunque non ho capito perchè ritenete che 3000 anni sia un tempo sufficientemente lungo... voglio dire
"Mai porre limiti alla divina provvidenza!" :P :mrgreen:
Piu' che altro, i 3000 anni diventano 2-3 se utilizzato come un hard-disk
qualsiasi, a causa di alcune celle che vengono inevitabilmente sottoposte
a "stress" continuo.... (e non c'e' modo di evitarlo perche' anche
inventandosi un meccanismo per spostare queste celle serve comunque
un indirizzo fisso a cui il sistema operativo deve agganciarsi, e questo
indirizzo verrebbe modificato ad ogni operazione.....)

PsyCloud
17-11-2006, 13:45
Un HD a piatti non dura MAI più di 10 anni (raramente arrivano ai 5 in uso continuo). supponiamo che le cifre di samsung siano volutamente esagerate di 10/20 volte. un solid state dura comunque di più di un HD a piatti. Senza contare che l'hd ha usura meccanica imprevedibile, è soggetto al fatto che se inciampi nel case rischi di fare un danno irreparabile, consuma a profusione, ha un tempo di accesso lentissimo, scalda a manetta. L'unica cosa interessante dell'hd a piatti è la densità di dati che può ospitare, molto superiore (attualmente) a quella di un solid state. Come disco di sistema, il solid state, sarebbe perfetto per l'ambiente domestico.

DevilsAdvocate
17-11-2006, 13:50
Un HD a piatti non dura MAI più di 10 anni (raramente arrivano ai 5 in uso continuo). supponiamo che le cifre di samsung siano volutamente esagerate di 10/20 volte. un solid state dura comunque di più di un HD a piatti. Senza contare che l'hd ha usura meccanica imprevedibile, è soggetto al fatto che se inciampi nel case rischi di fare un danno irreparabile, consuma a profusione, ha un tempo di accesso lentissimo, scalda a manetta. L'unica cosa interessante dell'hd a piatti è la densità di dati che può ospitare, molto superiore (attualmente) a quella di un solid state. Come disco di sistema, il solid state, sarebbe perfetto per l'ambiente domestico.
Non si tratta di cifre esagerate, si tratta di un calcolo sballato.

Loro dicono che ogni cella puo' durare 267 ore di scritture, e poi
moltiplicano per il numero di celle, ma e' un "barbatrucco":
alcune celle vengono riscritte praticamente sempre quando usi un
hard disk, e questo fa si che tu non possa moltiplicare per il numero di
celle.

(esempio di ragionamento viziato: "babbo natale mi ha portato un
giocattolo da 200 euro quest'anno, ci sono 200 milioni di bambini al
mondo e quindi se moltiplico babbo natale ha speso 40'miliardi di
euro... peccato che esistano i bambini molto meno fortunati, come in
questo caso esistono le celle "molto meno fortunate")

ShinjiIkari
17-11-2006, 13:52
e quando le celle sfortunate sono diventate inusabili il disco è da buttare o piu' ottimisticamente da riformattare (in modo da arginare le celle difettose e non usarle piu').

ronthalas
17-11-2006, 14:04
10k scritture in MLC non arriveranno mai a 297 anni... e al volo i motivi:

ho un disco da 32GB come disco sistema con XP, programmi, cartella documenti, posta e/o altre cose che "stanno bene" sul C.
In una situazione attuale (la mia per esempio) ci sono 15,7 GB di file scritti su questo disco da 32, di cui sicuramente una buona parte sono file che vengono solamente letti (gli EXE, le DLL, ecc...), in concreto abbiamo già dimezzato questi 297 anni, solo contando lo spazio "fisso".
Ora, il file di paginazione, documenti, posta e altro, vengono riscritti, riallocati tutte le volte che vengono modificati, o restano dove sono, o vengono solo "aggiornati"?

La mia ipotesi pessimista, è intorno a 1/3 di questo valore, quindi intorno ai 100 anni, più che sufficienti in teoria, ma secondo me è cmq un valore non realistico...

ShinjiIkari
17-11-2006, 14:12
Allora senza tecniche particolare le 10000 riscritture finiscono in 1 mese. Con il wear leveling (spero che venga implementato in hardware) tutto dipende da quanto è pieno il disco. Se il disco è diciamo pieno all'80% e i dati che vengono scritti continuamente (journal oppure swap o cose simili) sono molto piccoli, penso si possa considerare come durata del disco: 300 anni * % di disco mediamente libera. Quindi sufficiente.

homoinformatico
17-11-2006, 14:15
Mi spiace ma, pur essendo un fermo sostenitore di samsung, diffido delle 10.000 scritture.. non credo alla bontà dello spalmare le scritture sulle varie celle. Basta una sola applicazione impazzita (programma malevolo?)per sollecitare swap e uccidere il disco anche se questo ha una sua logica hardware. Quindi finchè non si avrà una soluzione "mista" che usi la solid come memoria di predizione e i relativi sistemi operativi capaci di operare con tale tecnologia... NISBA! :muro:


l'idea non mi sembra troppo campata in aria; non so quanto sia possibile ma se un virus si diverte a scrivere anche solo 10 volte al minuto in tre settori a caso nel mio file system le diecimila scritture vanno a farsi benedire molto presto (diciamo 16,666666666667 ore)

ora, potrebbe anche non fregarmene nulla di perdere una cinquantina di kb di capacità dopo un anno e 3 megabyte dopo 5, ma se mi infilano un malware che riesce a scrivere direttamente nella cella (ed è da vedere se è impossibile...) e mi fottono il file system, potrei anche aggiornare la mia classifica dei più odiati e mettere i produttori di memorie flash addirittura davanti a Peter Norton.

una cosa davvero fica a mio avviso invece sarebbe un ramdrive per il sistema operativo e una soluzione di memoria di massa per i dati

DevilsAdvocate
17-11-2006, 14:16
Il punto debole resta il come il sistema operativo accede al disco.
Per conoscere l'indice delle cartelle, deve sempre e comunque partire da un indirizzo noto (mettiamo '000000F') , e qui ci saranno un certo numero di
bytes che "sfuggono" a qualsiasi teconologia di leveling e vanno riscritti
molto spesso. Cercare di spostarli periodicamente fa si' che diventino
eccessive le riscritture all'indirizzo noto di cui sopra, rendendo il disco
inutilizzabile (la formattazione non basta piu! va buttato). Non spostarli
significa trasformare i calcoli di Samsung in favolette per bambini.....

ShinjiIkari
17-11-2006, 14:18
Come può un virus forzare la scrittura in una particolare cella se a gestire il wear leveling è la logica del disco stesso? Non può. Fine.

DevilsAdvocate
17-11-2006, 14:22
Come può un virus forzare la scrittura in una particolare cella se a gestire il wear leveling è la logica del disco stesso? Non può. Fine.
resta il problema del "punto di accesso" del sistema operativo, che non
puo' essere che fisso (per leggere un libro una persona parte sempre
dall'inizio, ad esempio). Il wear leveling non puo' evitare che questa
cella venga riscritta e quindi un virus puo' in teoria rendere inusabili
questi hard disk, in una 20ina di ore.
Ma anche senza virus (che si suppone possano danneggiare anche gli
HD tradizionali) il ragionamento di samsung "fa acqua"....
Tutto questo a meno che non implementino i primi "segmenti" del disco
su chip separato dall'affidabilita' maggiore, ma questo farebbe
probabilmente lievitare i costi.

flapane
17-11-2006, 14:23
Un HD a piatti non dura MAI più di 10 anni (raramente arrivano ai 5 in uso continuo). supponiamo che le cifre di samsung siano volutamente esagerate di 10/20 volte. un solid state dura comunque di più di un HD a piatti. Senza contare che l'hd ha usura meccanica imprevedibile, è soggetto al fatto che se inciampi nel case rischi di fare un danno irreparabile, consuma a profusione, ha un tempo di accesso lentissimo, scalda a manetta. L'unica cosa interessante dell'hd a piatti è la densità di dati che può ospitare, molto superiore (attualmente) a quella di un solid state. Come disco di sistema, il solid state, sarebbe perfetto per l'ambiente domestico.

oddio, il disco dell'ibm da 20mb ha 21anni ed è ancora perfettamente al suo posto, fino a 6anni fa ha avuto un utilizzo continuo (dall'85 al 2000, evito di spiegarvi il perchè di utilizzare anche un 286 ma ce ne sono stati :sofico: ), ed ogni tanto capita ancora di essere acceso per alcune operazioni e non c'è nessun problema (anzi mai ce n'è stato a nessun componente in oltre 20anni, materiale granitico di una volta :Prrr: ). Pare che oggi invece davvero i dischi non durino più di 4/5anni (sarà per le velocità di accesso e gli elevati transfer rate?)

PsyCloud
17-11-2006, 14:24
stiamo comunque parlando dell'hd di sistema. la sua parte più stressata è la swap, in teoria gli altri file dovrebbero essere in sola lettura. Comunque vedremo quando la tecnologia sarà fruibile a tutti le problematiche presenti. Se effettivamente sono 100 anni di lavoro ok, se sono 10 ok se è 1 meglio i piatti. E' presto per parlare visto che gli utonti non ci hanno ancora avuto a che fare.

DevilsAdvocate
17-11-2006, 14:28
stiamo comunque parlando dell'hd di sistema. la sua parte più stressata è la swap, in teoria gli altri file dovrebbero essere in sola lettura. Comunque vedremo quando la tecnologia sarà fruibile a tutti le problematiche presenti. Se effettivamente sono 100 anni di lavoro ok, se sono 10 ok se è 1 meglio i piatti. E' presto per parlare visto che gli utonti non ci hanno ancora avuto a che fare.
La swap puo' in teoria essere "rimappata" ad ogni avvio,non e' lei il
problema, semmai l'indice di files e cartelle che deve essere fisso
(perche' rimapparlo significa riscrivere "l'indirizzo iniziale" o "indirizzo
di accesso" ogni volta, portandolo ad uno stress ancora maggiore,
e questo indirizzo deve essere fisso o il sistema operativo non
puo' accedere ai dati perche' non saprebbe "da dove partire").

Inoltre, ora che ci penso, mi domando anche come puo' una tecnologia
di leveling esistere senza fare uso di memoria (perche' se fa uso di
memoria pure le sue celle sono sottoposte a stress, e non possono
avere a loro volta una tecnologia di leveling....)

ShinjiIkari
17-11-2006, 14:31
x DevilsAdvocate:

Parli dell'MBR? Allora non hai capito come funziona il wear leveling. E' ovvio che il MBR sia scritto sempre nei primi 512 byte del disco, il controller accede ai primi 512 byte (per fare un esempio) ma dove questi byte siano posizionati realmente lo sa soltanto la logica del disco fisso! Se te scrivi continuamente in quei byte li, il wear leveling del disco si occupera' di spostarli dove vuole alla seguente riscrittura ma te li restituirà sempre come se si trovassero nei primi 512 byte. Con il wear leveling in hardware il disco viene visto esternamente con i dati sequenziali che vanno dal primo all'ultimo byte del disco sempre nella stessa posizione, ma internamente lo deciderà il disco stesso dove dovranno essere registrati realmente i dati.

DevilsAdvocate
17-11-2006, 14:33
x DevilsAdvocate:

Parli dell'MBR? Allora non hai capito come funziona il wear leveling. E' ovvio che il MBR sia scritto sempre nei primi 512 byte del disco, il controller accede ai primi 512 byte (per fare un esempio) ma dove questi byte siano posizionati realmente lo sa soltanto la logica del disco fisso! Se te scrivi continuamente in quei byte li, il wear leveling del disco si occupera' di spostarli dove vuole alla seguente riscrittura ma te li restituirà sempre come se si trovassero nei primi 512 byte. Con il wear leveling in hardware il disco viene visto esternamente con i dati sequenziali che vanno dal primo all'ultimo byte del disco sempre nella stessa posizione, ma internamente lo deciderà il disco stesso dove dovranno essere registrati realmente i dati.
Per poter fare una cosa del genere il wear leveling dovrebbe usare delle
celle di memoria fisse..... sia per conservare dove ha mappato le cose
(ogni volta che cambia locazione fisica deve riscriverne l'indirizzo),
sia quante volte e' gia' stato scritto su un settore...... e cosa
salvaguarda le celle di memoria del wear leveling(specialmente quelle degli
indirizzi che devono cambiare piuttosto spesso)???? inoltre per sapere
"dove ha spostato l'MBR" la logica deve fare affidamento nuovamente su
delle celle FISSATE che ne tengano l'indirizzo (e queste sarebbero
sottoposte ad uno stress piuttosto alto).
Deve essere sempre possibile per il SO chiedere all'hard disk "dammi la
lista dei files" e la logica non puo' che rispondere con indirizzo/i FISSO/I...

Unica soluzione sarebbe usare celle SCL per queste parti "critiche", ma
questo significa aggiungere un chip specifico (diciamo almeno qualche
mega di memoria SCL) e far lievitare i costi, e se questo fosse nei piani
di samsung lo avrebbero certamente pubblicizzato.

ShinjiIkari
17-11-2006, 14:41
Potrebbe avere una porzione di disco dove tiene traccia dei rimescolamenti dovuti al wear leveling, e a limite potrebbe spostare di tanto in tanto anche questa, in pratica dovrebbe tener traccia fissa soltanto dell'indirizzo di quest'ultima, quindi 8 byte. 8 byte riscrivibili all'infinito penso che si possano implementare con costi trascurabili.

DevilsAdvocate
17-11-2006, 14:46
Potrebbe avere una porzione di disco dove tiene traccia dei rimescolamenti dovuti al wear leveling, e a limite potrebbe spostare di tanto in tanto anche questa, in pratica dovrebbe tener traccia fissa soltanto dell'indirizzo di quest'ultima, quindi 8 byte. 8 byte riscrivibili all'infinito penso che si possano implementare con costi trascurabili.
Hmmmm.... non credo, purtroppo che questo sia possibile, di infinito non c'e' nulla, comunque potrebbero usare SCL, ma influirebbe in ogni modo sui costi (i chip di memoria usano probabilmente processi
tecnologici differenti difficilmente si possono mixare e quando lo si fa in
genere si ottengono prestazioni perggiori....). Inoltre ogni operazione di
"mappatura" fa si che il tempo per l'accesso ad un byte casuale aumenti.

Nel caso che hai descritto tu, per accedere ad un dato qualsiasi serve
3 volte il tempo di accesso ad una cella, nel migliore dei casi:
1-accesso all'indirizzo dove hai mappato il wear leveling
2-accesso al dato del wear leveling che mi dice dove sta il dato vero e proprio
3-accesso al dato vero e proprio....

In questo caso il wear leveling sarebbe si' affidabile, ma dividerebbe per
3 la velocita' di lettura in modalita' "casuale" (non sequenziale).

homoinformatico
17-11-2006, 14:50
Come può un virus forzare la scrittura in una particolare cella se a gestire il wear leveling è la logica del disco stesso? Non può. Fine.

Intanto è da vedersi se può o non può.
Così come non è detto che non sarà bucato il palladium non è detto che non si trovi qualche "insettino" che permetta di riscrivere 10000 volte sulla stessa cella senza che me ne accorga

In secondo luogo era solo un esempio. Il punto è che il file system è il componente più delicato del settore storage. In genere un cluster danneggiato nel file system significa installare il SO su un'altro HDD e tantare il ripristino dei dati da lì. In più per la sua natura il file system è letto e scritto continuamente, per cui se il wear leveling non funziona come un orologio svizzero il rischio di una corruzione dei dati in esso contenuti non è poi così campata in aria

Inoltre se, come pare, il wear leveling agisce spostando continuamente i dati, vanno a farsi benedire le prestazioni generali

Con questo non voglio dire che gli Hard disk a stato solido facciano schifo; semplicemente sono perplesso su alcuni aspetti della tecnologia in questione. Se domani fossi sicuro che il peggio che può capitarmi con gli hard disk a stato solido è la perdita di qualche MB all'anno andrei immediatamente a prenotarne uno.

gas78
17-11-2006, 14:51
Secondo me x vedere quale sara' DAVVERO la vita utile di questi dischi ci sara' un metodo assolutamente sicuro: guardiamo quanto daranno di garanzia sui dischi quando escono!
Se Seagate (non so se anche altri) danno 5 anni di garanzia su degli obsoleti dischi a "piatto rotante", se e' vero che questi dischi sono molto piu' affidabili , credete che Samsung non dara' una garanzia di almeno 20 ? se la garanzia e' di uno o due anni.. sono tutte balle !

raistlin84
17-11-2006, 15:04
Macchè dischi solidi e piatti o che altro... 200giga di memora volatile, HD a piatti, all'avvio carica tutto in ram e allo spengimento li scrive sul disco.
Un buon PSU e tanta fortuna, questo è il sitema più veloce...una volta avviato ovviamente....Aahahahha!!!

ShinjiIkari
17-11-2006, 15:12
In questo caso il wear leveling sarebbe si' affidabile, ma dividerebbe per
3 la velocita' di lettura in modalita' "casuale" (non sequenziale).
Un paio di megabyte di RAM e il problema è risolto.

DevilsAdvocate
17-11-2006, 15:41
Un paio di megabyte di RAM e il problema è risolto.
RAM?????? e quando spengi? oppure intendi usarla come cache per
tutto il wear leveling (che va comunque scritto su memoria non volatile)?

Il degrado di prestazioni c'e' lo stesso, anche accedere alla ram richiede
il suo tempo (5 ns = 200Mhz......) un po' meno usando 2 Mb di costosa
SRAM per fare da cache all'MBR. Ma dubito che si siano "ricordati" di
usarla, per il solito problema di costi, e perche' probabilmente lo
pubblicizzerebbero..... inoltre dovrebbero prevedere un delay (minimo,
per carita') all'accensione per mettere i dati in ram.

DevilsAdvocate
17-11-2006, 15:43
Secondo me x vedere quale sara' DAVVERO la vita utile di questi dischi ci sara' un metodo assolutamente sicuro: guardiamo quanto daranno di garanzia sui dischi quando escono!
Se Seagate (non so se anche altri) danno 5 anni di garanzia su degli obsoleti dischi a "piatto rotante", se e' vero che questi dischi sono molto piu' affidabili , credete che Samsung non dara' una garanzia di almeno 20 ? se la garanzia e' di uno o due anni.. sono tutte balle !
Concordo.

Tra l'altro ho notato ora "120 MB all'ora"..... forse e' un po' poco,
le adsl attuali (4 mbit) da sole scaricano oltre 1400 MB all'ora.

ShinjiIkari
17-11-2006, 16:27
RAM?????? e quando spengi? oppure intendi usarla come cache per
tutto il wear leveling (che va comunque scritto su memoria non volatile)?

Si intendevo usarla come cache di lettura per il wear leveling. 5ns non sono nulla, dai i dischi attuali hanno 10ms, un ordine di grandezza in piu'. Certo le flash saranno piu' veloci ma 5ns sono comunque pochi. Semmai andrebbe a rallentare in scrittura (perché li' si devi scriverlo ANCHE sulla flash altrimenti quando spegni il disco succede un macello) ma soltanto quando interviene il wear leveling, ovvero quando la scrittura è una RIscrittura, altrimenti se è una semplice scrittura di dati nuovi si va a leggere la mappatura del wear leveling in RAM e si vanno a scrivere i dati normalmente in flash. Pensa anche che le riscritture continue nell'arco di pochi secondi sono comunque salvaguardate dai vari livelli di cache, quindi anche in questo caso non si va a rallentare nulla.

ShinjiIkari
17-11-2006, 16:37
Va beh via la stiamo facendo troppo lunga, il mio intento era spiegare che garantire una certa affidabilità è possibile, non implementare il wear leveling da me... Samsung ha i suoi bravi ingegneri, lo sapranno come implementare il tutto in modo sicuro ed efficiente.

midget
17-11-2006, 18:02
Per poter fare una cosa del genere il wear leveling dovrebbe usare delle
celle di memoria fisse
Non e' detto, potrebbe utilizzare un procedimento esclusivamente algoritmico che fa fare "il giro" (non deve per forza essere casuale, basta che l'utilizzo del disco risulti uniforme in media) alle varie celle di memoria fisiche rimappandole in una struttura logica sequenziale.
Il software vedrebbe un disco standard con gli indirizzi sequenziali, in realta' i dati sarebbero scritti in celle sparpagliate e variabili ad ogni accesso.
Secondo me si puo' fare anche senza punti di ingresso "fissi" ma utilizzando solo calcoli.

T3mp
17-11-2006, 18:22
bello!

ShinjiIkari
17-11-2006, 19:27
Non e' detto, potrebbe utilizzare un procedimento esclusivamente algoritmico che fa fare "il giro" (non deve per forza essere casuale, basta che l'utilizzo del disco risulti uniforme in media) alle varie celle di memoria fisiche rimappandole in una struttura logica sequenziale.
Il software vedrebbe un disco standard con gli indirizzi sequenziali, in realta' i dati sarebbero scritti in celle sparpagliate e variabili ad ogni accesso.
Secondo me si puo' fare anche senza punti di ingresso "fissi" ma utilizzando solo calcoli.
E' quello di cui stiamo discutendo da un paio di pagine.

MenageZero
17-11-2006, 20:32
26.000.000 di ore sono quasi 3000 anni, direi che è un compromesso accettabile :D
... magari il contenuto di qualche hdd slc durerà pure più della specie umana... :stordita:

più che altro mi viene da chiedermi, se nel caso "peggiore" finora prospettato un hdd a nand-flash sarà riscrivibile (e suppongo che i tempi di persistenza fisica del dato quindi "leggibilità" siano almeno dello stesso ordine di grandezza o alla peggio 1 in meno) per poco meno di 300 anni, dato che 300 anni <=> eternità in informatica, come è saltato fuori il punto della durata della "riscrivibilità" :sofico: ?
(che si concentrassero tanquillamente sulle prestazioni, voglio dire, senza andare verso problemi di affidabilità dovuti a probabilità di guasto, il problema della persistenza dei dati e riusabilità delle celle pare abbondandemente risolto, o no ?)

ekerazha
17-11-2006, 21:00
Come può un virus forzare la scrittura in una particolare cella se a gestire il wear leveling è la logica del disco stesso? Non può. Fine.
Già.

magilvia
17-11-2006, 23:45
Perché non ti piacciono gli ibridi? Io preferisco un disco ibrido che mi permetta di registrare 200GB di dati costando poco e tenendo il sistema in memoria statica, piuttosto che spendere il doppio per avere solo 64GB (tutta statica).
Gli ibridi annullano tutti i vantaggi del disco statico: non sono veloci come quelli puramente statici, consumano come quelli meccanici, scaldano come quelli meccanici e fanno rumore come quelli meccanici!!! Inoltre tutti si pongono il problema delle riscritture per l'intero disco statico ma nessuno che pensa che le riscritture sulla piccola cache di un disco ibrido sarebbero qualcosa come un'ordine di grandezza superiore, allora si che ci sarebbero dei problemi di durata.
Insomma l'ibrido è una presa per i fondelli. Boicottiamolo!

JohnPetrucci
17-11-2006, 23:52
Beh che si diano una mossa a rendere queste tecnologie prestanti e a prezzi umani il prima possibile, oramai gli hard disk meccanici hanno fatto il loro tempo, seppur a 10.000 o a 15.000 rpm.

imayoda
18-11-2006, 22:28
Già.

:fagiano: Come fanno a bypassare l'hardware? Semplice:
Conoscendo l'architettura che, per via del contenimento spese, sarà semplice e attaccabile. Basterà che l'applicazione scriva 2MB al minuto, magari creando frammentazione con file parziali oppure spostando piccoli file in continuazione....(la prova arriverà quando anche il blue ray sarà decaduto) :read:
Chi si diverta a fare malware non lo sappiamo...sappiamo che sono deviati comunque e dobbiamo mettere in conto che il tipico rumorino delle testine e dei piatti in fase di read write non ci sarà e io non vedo sinceramente il led hd del mio computer, essendo in basso (quanti come me?)..
A presto

Pashark
19-11-2006, 00:23
Sembra che le cose si muovano, finalemente nella giusta direzione...
Sapete che botta di vita al nb?!

ekerazha
19-11-2006, 09:05
:fagiano: Come fanno a bypassare l'hardware? Semplice:
Conoscendo l'architettura che, per via del contenimento spese, sarà semplice e attaccabile. Basterà che l'applicazione scriva 2MB al minuto, magari creando frammentazione con file parziali oppure spostando piccoli file in continuazione....(la prova arriverà quando anche il blue ray sarà decaduto) :read:
Chi si diverta a fare malware non lo sappiamo...sappiamo che sono deviati comunque e dobbiamo mettere in conto che il tipico rumorino delle testine e dei piatti in fase di read write non ci sarà e io non vedo sinceramente il led hd del mio computer, essendo in basso (quanti come me?)..
A presto
1) Scrivendo 2 MB al minuto il disco durerà 300/3000 anni.
2) La frammentazione non c'entra.
3) Quando viene spostato un file viene semplicemente aggiornato ad esempio l'MFT, non viene riscritto il file.

sinadex
19-11-2006, 09:16
?????? la cache ridurrebbe a 1 al giorno le riscritture se tu poi non
facessi alcuna altra operazione oltre ad aggiornare l'indice delle cartelle.
Pero' in un uso normale dell'hard disk la cache viene svuotata e
ririempita centinaia di volte in un ora (salvataggi temporanei, modifiche
di piccoli files, etc.etc.). L'unica soluzione sarebbe mantenere tutto
l'indice in cache fino allo spegnimento del PC, ma in molti ambiti non e'
una soluzione proponibile (se salta la corrente o crasha il pc perdi tutti
i salvataggi effettuati da quando lo hai acceso[...].basta usare una memoria cache abbinata ad un condensatore: appena la corrente va via il contenuto della cache viene scritto nella memoria non volatile (sfruttando appunto la corrente immagazzinata nel condensatore), e dato che si tratta di poca roba e che il tutto consuma poco, basta un condensatore nenache troppo grande.
PS a questo punto deframmentare l'hd non ha più senso... sia che i dati siano tutti in fila o che siano sparpagali a casaccio il tempo necessario a leggerli sarà pressochè lo stesso (al contrario degli hd meccanici, dove la testina deve andare avanti e indietro a recuperare i vari frammenti ed aspettare che la porzione di piatto da leggere le passi sotto)

kinotto82
19-11-2006, 14:41
x magilvia:

Perché non ti piacciono gli ibridi? Io preferisco un disco ibrido che mi permetta di registrare 200GB di dati costando poco e tenendo il sistema in memoria statica, piuttosto che spendere il doppio per avere solo 64GB (tutta statica).
Personalmente acquisterei senza pensarci 2 volte un H.D. ibrido ma bisogna purtroppo pensare che tutte le soluzioni integrate (il cui vantaggio principale è un prezzo competitivo rispetto a 2 dispositivi separati :fagiano: ) hanno come svantaggio il fatto ke basti che una delle 2 "parti" (quella solida e magnetica) si rovini per buttare l'H.D. (vista la fragilità degli H.D. attuali.....) :cry:
Cmq. per il resto quoto i commenti precedenti che spiegano come nella realtà l'emivita di un H.D. allo stato solido sia moooolto inferiore di quella prevista da samsung (ma va :O ) ;)
Staremo a vedere, io sono cmq. ottimista :D

biffuz
19-11-2006, 17:10
Cosa? 7 minuti di produttività giornaliera persa per il seek time dell'hard disk? Ma siamo matti??? Corriamo a comprare 'sta meraviglia tecnologica... fa niente se poi gli impiegati perdono due ore tra pause sigaretta, pause caffé, pause bisogni fisiologici, pause chiaccherata, pause telefonate alla mamma per chiederle come sta il gatto...

Questa se la potevano proprio evitare :-)

imayoda
19-11-2006, 21:35
1) Scrivendo 2 MB al minuto il disco durerà 300/3000 anni.
2) La frammentazione non c'entra.
3) Quando viene spostato un file viene semplicemente aggiornato ad esempio l'MFT, non viene riscritto il file.
Ok.. l'mft di cosa sarà fatto? A piatti? Ram con ups? Fogli di carta?
Beh.. SSD si trovano già su ebay della samsung.. costicchiano ma credo ne esaminerò uno volentieri nella mia macchina server..
A presto

Gothic
19-11-2006, 23:48
Raga cmq nn ci resta che aspettare l'arrivo sul mercato... speriamo che nn sia una mazzata esagerata :D
C'è da pensare che questi nuovi "HD" sono un ottima innovazione, guardando i consumi per i portatili sara una cosa grandiosa come appundo diceva Pashark.
Certo prima che si diffondano seriamente c'è ne vorra di tempo.
A me la cosa che piu mi proccupa nn è l'usura... sono i benedetti virus :muro: che se riscrivono appunto sempre le stsse celle, la cosa nn è affatto positiva :(
Raga si sa quando saranno commercializzati???

GabrySP
23-11-2006, 08:01
Il calcolo fatto con una previsione di scrivere 120 MB/h e' una boiata assurda, basta mettere il pc in sospensione e gia si scrivono 1 GB di dati o anche di +, e quando e' presente un discreto swapping il disco subisce svariati GB/h di riscritture [chi fa editing video ne sa qualcosa] quindi la durata di un disco di sistema con file di swap andrebbe ridotta di un fattore 100.

Inoltre bisogna considerare che 100.000 riscritture e' un valore medio e non il worst case, quindi considerando una grande varianza di questa variabile aleatoria, anche in presenza di celle di "backup" (come nei dischi tradizionali), la dutata probabilmente andrebbe ridotta di un altro fattore tra 10 e 100 (portando la dutata effettiva al + a 2-3 anni) (quando le celle di "backup sono finite al primo problema il disco "solido" finisce nel secchio dei rifiuti "solidi" urbani)

Resto comunque ottimista e non vedo l'ora di avere un raid 5 di questi gioiellini

turbina2
18-07-2007, 19:15
saranno pur garantiti ..o no?
al limite è possibile che hanno messo un timer hardware che impedisca la scrittura sotto una soglia della stessa cella?