PDA

View Full Version : SSD: thread generale e consigli per gli acquisti


Pagine : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 [61] 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94

postillo
02-09-2018, 15:21
Conviene, a patto di non acquistare modelli di dubbia provenienza. A differenza degli hard disk, praticamente qualunque produttore di componenti elettronici può assemblare memorie, controller e memoria cache (quest'ultima oramai opzionalmente) prodotti da altre aziende e vendere SSD. La tecnologia che c'è dietro non è troppo diversa da quella usata per le pendrive USB.

E come per le pendrive USB, ci sono produttori minori che "giocano sporco" e per abbassare i prezzi reperiscono componenti di dubbia qualità se non contraffatti, principalmente memorie NAND.

Quindi in linea generale basterebbe orientarsi verso marche diffuse, magari che producono in proprio le memorie NAND invece di acquistarle da terzi (se non mi sono scordato nessuno: Samsung, Intel, Micron, Crucial, SanDisk, Toshiba), anche se a volte anche qui ci sono casi sfortunati con i modelli di fascia ultra-bassa.

Io al momento ho nel PC un SSD del 2008 (preso usato/regalato al tempo), uno del 2011 ed uno del 2014. Non ritengo siano bombe ad orologeria.

ma perchè, un bell Kingston o Sandisk da 120GB (per OS secondario, test distro ecc.) nella fascia 29-33 € non va bene?

giovanni69
02-09-2018, 15:47
C'è anche da dire che per un HD a volte, se il problema è il PCB, si riesce a recuperare su eBAY il pezzo e sostituirlo svitando qualche vite. Su SSD ti scordi opzioni del genere. In altre parole, SSD suggerisce di fare backup regolari a vita... che comunque hanno ragione di esistere anche per un HD :O

max60
02-09-2018, 16:48
Se è la tua prima ricarica in cassa...
Puoi sempre farti un altro account, già sperimentato :D

s12a
02-09-2018, 16:52
ma perchè, un bell Kingston o Sandisk da 120GB (per OS secondario, test distro ecc.) nella fascia 29-33 € non va bene?

La risposta era nel messaggio successivo.

Grezzo
02-09-2018, 20:45
vediamo come si comporta il bx500, strano che crucial abbia lanciato il prodotto senza presentarlo quindi per sapere come va l' unica è aspettare qualcuno che lo compri e lo provi, se non ha praticamente dram potrebbe essere non molto lontano dal lurido sandisk plus 120, ps: ho messo l' ultimo firmware ma sempre scrauso rimane quindi escludo che il problema sia quello, purtroppo il proprietario che è un tipo senza pretese oltre a navigazione ci copia qualche filmetto da una pendrive, classico carico server per intenderci :fagiano: , ed andandogli un bel po in meno se l è presa con me. :D

stefanonweb
02-09-2018, 21:12
Sentendo il discorso degli SSD come bombe ad orologeria... Chiedo: Visto si suppone nel giro di poco tempo si possano trovare SSD da 2TB (Sandisk, Crucial ecc... di qualità) sotto i 300€... Se i vostri dati "Importanti" stessero in 2TB a questo punto andreste ancora di HD meccanico 2TB + SSD 128/256GB per il sistema operativo... O iniziereste a pensare ad un SSD da 2TB? Grazie.

\_Davide_/
02-09-2018, 21:48
Ragazzi, ma conviene veramente acquistare un SSD?

Io ti rispondo con il mio punto di vista, che si divide in 3 punti:

1) Ormai li montano anche sui server, veda un po' lei :D

2) Se un Hard Disk cade perdi tutti i dati comunque (ed in mano mia è moooolto più probabile rispetto alla rottura di un SSD).

3) L'unica cosa che ritengo "sicura" è la protezione con doppio backup (1 in rete e 1 offline). Il solo SSD non è sicuro allo stesso modo in cui non lo è un solo HDD.

Nelle mie statistiche ho rotto 2 hard disk e non mi si è mai danneggiato nessun SSD

frafelix
03-09-2018, 00:23
Io utilizzo ancora un Intel X-25M da 80gb del 2009 in un MacMini!

sturia90
03-09-2018, 01:20
vediamo come si comporta il bx500, strano che crucial abbia lanciato il prodotto senza presentarlo quindi per sapere come va l' unica è aspettare qualcuno che lo compri e lo provi, se non ha praticamente dram potrebbe essere non molto lontano dal lurido sandisk plus 120, ps: ho messo l' ultimo firmware ma sempre scrauso rimane quindi escludo che il problema sia quello, purtroppo il proprietario che è un tipo senza pretese oltre a navigazione ci copia qualche filmetto da una pendrive, classico carico server per intenderci :fagiano: , ed andandogli un bel po in meno se l è presa con me. :D

sulla carta dovrebbe essere inferiore all'mx500 giusto?

s12a
03-09-2018, 05:04
vediamo come si comporta il bx500, strano che crucial abbia lanciato il prodotto senza presentarlo quindi per sapere come va l' unica è aspettare qualcuno che lo compri e lo provi, se non ha praticamente dram potrebbe essere non molto lontano dal lurido sandisk plus 120, ps: ho messo l' ultimo firmware ma sempre scrauso rimane quindi escludo che il problema sia quello, purtroppo il proprietario che è un tipo senza pretese oltre a navigazione ci copia qualche filmetto da una pendrive, classico carico server per intenderci :fagiano: , ed andandogli un bel po in meno se l è presa con me. :D

Stai confondendo un problema firmware di alcuni modelli con la lentezza intrinsica durante le operazioni di scrittura sostenute di questi SSD.

Il Crucial MX500 250GB già si comporta così, in parte. Dimezzando la capienza, montando memorie più lente e togliendo la cache DRAM è plausibile pensare che in scrittura sostenuta un BX500 120GB possa scendere ampiamente sotto i 100 MB/s.

https://i.imgur.com/Uq01QRD.png

La densità delle nuove memorie NAND prodotte tende ad aumentare nel tempo, ma se la capienza minima che si è disposti ad acquistare rimane stazionaria, il diminuito parallelismo tenderà a far scendere la velocità in scrittura sostenuta.

Pess
03-09-2018, 07:12
Domandone...
Se uno avesse bisogno di un SSD da 1Tb ed avesse a disposizione 2 da 500Gb identici (Crucial MX300), consigliereste di usare i due già in possesso in raid 0 pure di vendre i due da 500 e prenderne uno nuovo da 1Tb?
La soluzione di usare i due da 500 senza raid non è contemplata...

Baio

Come per gli HDD il Raid 0 aumenta le possibilità di perdita di dati e, che io ricordi, con gli SSD non si hanno grandissimi vantaggi utilizzando questa configurazione. Ovviamente se gli SSD da 500 Gb li hai già a disposizione puoi risparmiarti l'acquisto di un altro da 1 Tb.

\_Davide_/
03-09-2018, 08:34
Sicuramente si può fare, con un backup in ogni caso!! (Se la scheda madre è recente si guadagna anche in prestazioni).

Grezzo
03-09-2018, 13:43
Stai confondendo un problema firmware di alcuni modelli con la lentezza intrinsica durante le operazioni di scrittura sostenute di questi SSD.

Il Crucial MX500 250GB già si comporta così, in parte. Dimezzando la capienza, montando memorie più lente e togliendo la cache DRAM è plausibile pensare che in scrittura sostenuta un BX500 120GB possa scendere ampiamente sotto i 100 MB/s.

https://i.imgur.com/Uq01QRD.png

La densità delle nuove memorie NAND prodotte tende ad aumentare nel tempo, ma se la capienza minima che si è disposti ad acquistare rimane stazionaria, il diminuito parallelismo tenderà a far scendere la velocità in scrittura sostenuta.

no riportavo il fatto che con firmware vecchio o nuovo le prestazioni sono identiche quindi ipotizzavo il fatto che non fosse un problema di firmware le basse prestazioni, anche in scrittura, oltre ai problemi strutturali della ridotta capienza, dram esigua o ad essente ecc ecc.

s12a
03-09-2018, 16:11
Alla fine ho preso un Crucial MX500 500GB da sostituire ad un vecchio Samsung 840 250GB su un altro PC, che mi riprenderò per parcheggiarci sopra su questo PC Windows, Steam ed altro. Penso di passare a Linux sul SanDisk Extreme 480GB.

Non sembra a proposito che l'ultimo aggiornamento firmware uscito per l'840 abbia risolto la situazione quanto ai rallentamenti con i dati statici nel corso del tempo, ma c'è da dire che fino adesso non ci sono state perdite di dati o indicazioni che potrebbe farlo a momenti. L'utente che usa il PC con questo SSD non sembra avere notato nulla di strano durante l'uso effettivo; mah!

https://i.imgur.com/j36NURT.png

Secondo i dati SMART questo SSD ha effettuato in media 350 cicli di scrittura (su 1200, a quanto pare), ed ha 71% di vita rimanente, a proposito. 5 anni e mezzo di attività.

Questo comportamento comunque è una chiara dimostrazione che il wear leveling almeno su questi modelli non cerca a tutti costi di equilibrare l'usura fra le varie celle di memoria. A dire il vero da test passati quando ne ero possessore suggerivano che di fatto avvenisse l'opposto: viene cercato di farlo il meno possibile.

Vodolaz
03-09-2018, 17:31
Domandone...
Se uno avesse bisogno di un SSD da 1Tb ed avesse a disposizione 2 da 500Gb identici (Crucial MX300), consigliereste di usare i due già in possesso in raid 0 pure di vendre i due da 500 e prenderne uno nuovo da 1Tb?
La soluzione di usare i due da 500 senza raid non è contemplata...

RAID0 o LVM, tendenzialmente preferirei il secondo

s12a
03-09-2018, 17:53
Suppongo sia questo LVM: https://en.wikipedia.org/wiki/Logical_Volume_Manager_%28Linux%29

In Linux, Logical Volume Manager (LVM) is a device mapper target that provides logical volume management for the Linux kernel. [...]
LVM is used for the following purposes:


Creating single logical volumes of multiple physical volumes or entire hard disks (somewhat similar to RAID 0, but more similar to JBOD), allowing for dynamic volume resizing.
[...]

Non ho esperienza di utilizzo a riguardo in quanto ho sempre trovato complicasse più del dovuto per i miei usi la gestione delle partizioni.

Qualcosa di equivalente su Windows 8/10+ si chiama Storage Spaces ed anche qui non ho mai effettuato particolari prove. È inteso principalmente per fornire ridondanza anche se può unire più dispositivi di memorizzazione come se fossero uno solo, effettuando una sorta RAID software indipendente dall'hardware sottostante.

https://www.howtogeek.com/109380/how-to-use-windows-8s-storage-spaces-to-mirror-combine-drives

The Storage Spaces feature built into Windows allows you to combine multiple hard drives into a single virtual drive. It can mirror data across multiple drives for redundancy, or combine multiple physical drives into a single pool of storage. Storage Spaces is similar to RAID or LVM on Linux.

amd-novello
03-09-2018, 18:53
la salute di quel 840 è davvero sballata. col crucial che ho con 10TB di scritture mi segna 97% e ha le mlc e non le tlc

s12a
03-09-2018, 19:03
la salute di quel 840 è davvero sballata. col crucial che ho con 10TB di scritture mi segna 97% e ha le mlc e non le tlc

In che senso? 350 cicli * 256 GB di capienza totale delle NAND (incluso overprovisioning) fanno 87.5 TB di scritture sulle NAND, e diviso 57.44 TB di scritture host comportano una write amplification globale di poco più di 1.5x. Mi sembra coerente con i dati riportati.

Il calo di velocità in lettura sequenziale avviene solo con i dati statici; con quelli nuovi (o lo spazio libero/trimmato) dovrebbe andare a 500 MB/s.

Non ricordo se io abbia mai effettuato un secure erase dopo aver aggiornato il firmware. Magari è necessario per rendere permanenti eventuali migliorie nella gestione avvenute dopo l'operazione. Quando avrò nuovamente l'SSD nel mio sistema proverò ed effettuarne uno, e poi anche verificare se mantenere spazio non partizionato (e mai toccato dopo il secure erase) aiuta in qualche modo.

Non prevedo di usare questo SSD intensamente dunque potrò documentare il calo nel tempo della velocità dei dati memorizzati ad intervalli regolari ed in maniera ragionevolmente riproducibile.

amd-novello
03-09-2018, 19:20
health 100%

dovrebbe essere molto meno.

cmq samsung vergognosa che non ha ancora risolto quei problemi.

s12a
03-09-2018, 19:29
"Health 100%" dipende da CrystalDiskInfo e dagli attributi/o che usa per calcolarla, non è un dato fornito direttamente dall'SSD. Dovrei andare a controllare, ma credo che per i Samsung vada a vedere il valore normalizzato dei settori riallocati o dei blocchi di riserva utilizzati e dato che su questo SSD sono entrambi ancora a 0, lo stato di salute indicato è 100%.

A questo punto, dopo tutti questi anni, non penso che ci saranno soluzioni ufficiali per questo problema. L'unico modo noto per aggirarlo è rinfrescare le celle ad intervalli regolari, ma questo comporta un incremento dell'usura, cosa che presumo Samsung abbia voluto evitare anche con il nuovo firmware. Però, ancora, non ricordo se abbia mai fatto un secure erase dopo l'operazione, magari dopo di esso la situazione cambia drasticamente (anche se ci spero poco).

max60
03-09-2018, 20:22
Non sembra a proposito che l'ultimo aggiornamento firmware uscito per l'840 abbia risolto la situazione quanto ai rallentamenti con i dati statici nel corso del tempo,
Ma l'aggiornamento firmware non era uscito solo per l'840 Evo ?

s12a
03-09-2018, 20:25
No, anche per l'840 originale, disponibile solo tramite Samsung Magician:

PCPer: Samsung Magician 4.9.7 and Samsung 840 DXT0AB0Q Firmware Tested, Read Speed Issues Finally Addressed (https://www.pcper.com/reviews/Storage/Samsung-Magician-497-and-Samsung-840-DXT0AB0Q-Firmware-Tested-Read-Speed-Issues-Fina)

Un DXT0BB0Q non è mai uscito, però.

Grezzo
03-09-2018, 21:10
in realtà io sapevo che proprio il firm samsung di correzzione aveva un algoritmo che spostava i dati vecchi >30gg nei tempi morti dell ssd in modo da prevenire il calo finendo ovviamente per usurare maggiorment eil disco, si parlava del 30% in più poi non so se fossero baggianate, dpo il prim periodo di indignazione non s ene è piu parlato ed è finito tutto a tarallucci e vino (nonostante il problema fosse noto da tempo a samsung e solo quando è venuto fuori hanno provveduto a correggerlo), mi cognato ha un 840evo se ho modo gli faccio un test

s12a
03-09-2018, 21:27
Se il firmware fa effettivamente qualcosa, non è durante l'uso continuativo a basso o nullo carico.

Sembra esserci qualche correlazione con la temperatura o le letture intensive sequenziali effettuate consecutivamente, nel senso che ripetendo il test da HDTune (od altri equivalenti) le prestazioni aumentano un po', ma non so ancora se la cosa sia solo a breve o brevissimo termine. Già qualche anno fa, prima dell'aggiornamento firmware, io avevo notato che a caldo l'SSD sembrava rendere meglio.

https://i.imgur.com/eqsp7VP.gif

Grezzo
03-09-2018, 21:43
ti aumenta anche l utilizzo della cpu :D, ma è normale che tu abbia un utilizzo della cpu così elevato ? io non supero il 3%

s12a
03-09-2018, 21:52
Suppongo sia perché chi ha questo SSD sta usando il PC mentre effettua i test che gli sto richiedendo; non posso tenerlo occupato in maniera esclusiva in questo momento. Potrebbe essere una coincidenza. Con l'ultimo aggiornamento l'occupazione indicata è salita a 31.2% e la velocità media non è aumentata ma sono diminuiti lievemente di gravità i picchi minimi.

s12a
03-09-2018, 23:20
Questo è il mio (non so' se è utile):

https://s33.postimg.cc/o38zd2k0b/Senza_titolo-1.jpg (https://postimg.cc/image/o38zd2k0b/)

Devi impostare dalle opzioni del programma i blocchi alla dimensione massima ed il test come "accurato".

In ogni caso, test dopo test:

https://i.imgur.com/1NZK7HJ.gif

Anche se potrebbero essere semplicemente le memorie più calde che vengono lette più facilmente che a freddo.

Mah… non posso dire di essere un esperto, ma un raid software mi ha sempre lasciato perplesso…
Per quanto ne sappia il supporto al RAID sulle comuni schede madri è praticamente sempre software. Vengono a volte chiamati "Fake RAID". Un vero RAID hardware ha una sua scheda logica dedicata.

https://skrypuch.com/raid/

Fake RAID

You've probably never heard of Fake RAID before, at least by that name, but it's extremely common, just about every motherboard these days features it. Most low end add-in RAID cards also fall into this category. There's a slew of reasons why you wouldn't want to use Fake RAID and basically only one reason why you'd want to use it.

Fake RAID is essentially software RAID provided by the BIOS on the motherboard, however, it has none of the benefits of Software RAID and none of the benefits of Hardware RAID, hence, Fake RAID. A very important fact to remember about Fake RAID is that the implementation varies from motherboard to motherboard, some are better tested than others, some are missing features that should be there, etc. Fake RAID from one vendor to another is almost guaranteed to be completely different.

Unlike Hardware RAID, Fake RAID does not present the array as a single logical disk to the OS, so the OS still needs to explicitly support Fake RAID. Unlike Software RAID, Fake RAID does not use a consistent on disk format, and if your motherboard dies, your data is probably lost unless you can find another identical motherboard. Fake RAID rarely supports any RAID levels other than 0 or 1. Fake RAID rarely supports hot spares or hot swappable drives. Fake RAID does not support nesting of RAID arrays and only supports RAIDing an entire disk (not a partition, file, or generic block device).

The one upside of Fake RAID is that it does allow you to boot multiple OSes from the same array of drives, provided that both OSes support the Fake RAID. Though, that's only relevant if the two OSes have mutually incompatible implementations of Software RAID (or don't have one at all), booting 2 different distros of Linux is trivially easy when using Software RAID instead of Fake RAID.

So, with Fake RAID:


Use RAID 0 or 1.
Can't nest RAID arrays.
Create RAID arrays using whole disks only.
Pray your motherboard never dies or keep several identical ones on hand.
Can't have hot spares and can't support hot swappable drives.

Grezzo
03-09-2018, 23:54
si ma non ha alcuni lagica che le prestazioni aumentino così tanto a memorie calde, non è un motore termico, il motivo non è assolutamente delle memorie calde altrimenti sarebbe impossibile fare anche solo dei test comparativi tra un disco e l' altro considerando variabili di rilevazione che sono gigantesche, hai un guagano sui i valori minimi del 300%

Grezzo
04-09-2018, 00:02
Suppongo sia perché chi ha questo SSD sta usando il PC mentre effettua i test che gli sto richiedendo; non posso tenerlo occupato in maniera esclusiva in questo momento. Potrebbe essere una coincidenza. Con l'ultimo aggiornamento l'occupazione indicata è salita a 31.2% e la velocità media non è aumentata ma sono diminuiti lievemente di gravità i picchi minimi.

però un utilizzo del 20-30% della cpu indica un intensa attività a meno che non abbia un atom, secondo me non sono test da prendere in considerazione perchè se l utilizzo della cpu è così alto qualcosa in pasto di dati devi pur dargliela

s12a
04-09-2018, 00:30
si ma non ha alcuni lagica che le prestazioni aumentino così tanto a memorie calde, non è un motore termico, il motivo non è assolutamente delle memorie calde altrimenti sarebbe impossibile fare anche solo dei test comparativi tra un disco e l' altro considerando variabili di rilevazione che sono gigantesche, hai un guagano sui i valori minimi del 300%

Se le memorie stanno già lavorando al limite di qualche fenomeno controproducente (che causa una diminuzione della velocità) potrebbe esserci un guadagno sensibile con la temperatura.

A temperature più elevate ed SSD in funzione diminuiscono gli errori (BER/Bit Error Rate) che normalmente vengono corretti in maniera trasparente dal controller dell'SSD. Queste correzioni richiedono tempo. Più basso è il BER, meno influenzate saranno le prestazioni. Un SSD con memorie nuove (o dati freschi) avrà un basso BER e sarà influenzato poco o nulla in questo senso.

https://i.imgur.com/MBZllqol.png

http://www.snia.org/sites/default/education/tutorials/2009/spring/solid/JonathanThatcher_NandFlash_SolidState_Storage_ReliabilityV1-0-nc.pdf


https://www.eeweb.com/profile/eli-tiomkin/articles/industrial-temperature-and-nand-flash-in-ssd-products

Temperature and Bit Error Rate

Over time, NAND cells may lose enough charge and flip enough bits to overwhelm the ECC capability of the drive controller and cause data loss. Another illustration of the effects of temperature on reliability is the differences in raw bit error rate (RBER) of the NAND when write cycled to a fixed P/E count at different temperatures. WD internal test data shows the following relationship between the RBER and temperature.

https://cdn.eeweb.com/articles/articles/Figure-3-1343152191.PNG
https://cdn.eeweb.com/articles/articles/Figure-3-1343152191.PNG

The data shows that NAND programmed to its endurance limit at -40°C will have a higher RBER than NAND programmed at 25°C, and higher than that of NAND programmed at 85°C. The operation of programming NAND at low temperature increases the rate of degradation of the cell oxide layer relative to programming at higher temperature.

però un utilizzo del 20-30% della cpu indica un intensa attività a meno che non abbia un atom, secondo me non sono test da prendere in considerazione perchè se l utilizzo della cpu è così alto qualcosa in pasto di dati devi pur dargliela

L'incremento di velocità con l'uso continuato con questo SSD c'è ed è riproducibile. Il PC è in uso attivo con diversi programmi in background, ma non con elevate operazioni di I/O.

Grezzo
04-09-2018, 01:31
non sono assolutamente un esperto, anzi abbastanza ignorante in materia ne saprai sicuramente più di me, però secondo me stai cascando nel classico errore aneddotico, avere un aneddoto e volero applicare ad altre cose che potrebbero essere molto diverse. dello studio non ho capito molto però e non mi ci metto più di tanto perchè potrei finire come quelli che leggono uno studio vs i vaccini e per gap di cultura specifica recepirlo male. è però stato pubblicato 10 anni fa anche se l' altro è effetticamente molto piu recente, e per quanto ne so io potrebbe benissimo essere stato condotto su nand totalmente diverse da quelle che usiamo quindi risultare obsoleto, siamo sicuri che parlino delle "nostre" nand che abbiamo dentro al pc? non si vede però nessuno studio di prestazioni al variare della temperatura, ok errori e longevità, ma rimanendo nelle cose che conosco, non mi sembra verosimile che differenze di temperatura portino a differenze prestazionali enormi come stai dicendo, anche perchè pare assurdo che nessuno se ne sia mai accorto, triplicare la lettura minima in base alla temperatura mi pare fantascienza, significa non poter confrontare 2 ssd anche solo sper sbaglio si deve rifare un test subito dopo (+100%)

io personalmente non ho riscontrato la minima differenza nel rimandare in loop i test e fare scaldare il disco, se non decrementi della velocità sopra i 60 per il throttling del controller?? per sintetizzare non mi pare minimamente possibile un guadagno del 300% in base alla temperatura.
se mi porti un test che mette in correlazione temperatura su velocità ci credo pure io :D

s12a
04-09-2018, 05:22
Come già scritto, i benchmark sono normalmente effettuati su dati freschi e memorie non degradate, dove gli algoritmi di correzione errore del controller non devono lavorare intensamente. Per lo stesso motivo questo problema non lo si può vedere con CrystalDiskMark e programmi simili che creano nuovi file temporanei ad ogni benchmark.

Nessun recensore hardware ha mai effettuato test del genere. Solo accelerando in qualche modo l'usura od il fenomeno di perdita di ritenzione dati potrebbe essere ragionevole farlo. Questo può comportare ad esempio piazzare l'SSD spento in un forno a temperatura controllata (es. a 70-80 °C) per un certo periodo e verificare periodicamente le prestazioni in un normale PC.

Fra qualche ora proverò a far fare un altro test con HDTune ad SSD "raffreddato" per vedere se gli incrementi di ieri erano solo temporanei.
Un problema associato è che molto spesso la temperatura rilevata è quella del controller o di altri componenti nelle sue immediate vicinanze piuttosto che le memorie, dunque diventa più complicato stabilire una correlazione diretta con il dato fornito dai parametri SMART.

s12a
04-09-2018, 09:04
Rifatto:

https://s33.postimg.cc/8mdi3005b/Senza_titolo-1.jpg

Non sembrano esserci peggioramenti.

A proposito, ho appena riprovato con l' 840 non-EVO. Sembra che le condizioni di ieri siano state grosso modo mantenute (la velocità all'inizio della partizione è circa 150 MB/s contro i 27 MB/s del primo test), con lievi cambiamenti apparentemente correlati con la temperatura.


A proposito di temperatura, alcuni test furono fatti in passato da terze parti con gli 840, sostanzialmente confermando le mie osservazioni:

https://www.techspot.com/article/997-samsung-ssd-read-performance-degradation/

https://static.techspot.com/articles-info/997/images/2015-05-05_13-21-30.gif
(https://static.techspot.com/articles-info/997/images/2015-05-05_13-21-30.gif)

\_Davide_/
04-09-2018, 09:50
Mi sembra che la cosa fosse risaputa, non mi suona nuova!!

s12a
04-09-2018, 09:52
È stato un argomento ampiamente discusso al tempo, ma dato che gli SSD in questione non sono tutti morti o finiti in discarica, se ne riparlerà ciclicamente.

Grezzo
04-09-2018, 13:31
Come già scritto, i benchmark sono normalmente effettuati su dati freschi e memorie non degradate, dove gli algoritmi di correzione errore del controller non devono lavorare intensamente. Per lo stesso motivo questo problema non lo si può vedere con CrystalDiskMark e programmi simili che creano nuovi file temporanei ad ogni benchmark.

Nessun recensore hardware ha mai effettuato test del genere. Solo accelerando in qualche modo l'usura od il fenomeno di perdita di ritenzione dati potrebbe essere ragionevole farlo. Questo può comportare ad esempio piazzare l'SSD spento in un forno a temperatura controllata (es. a 70-80 °C) per un certo periodo e verificare periodicamente le prestazioni in un normale PC.

Fra qualche ora proverò a far fare un altro test con HDTune ad SSD "raffreddato" per vedere se gli incrementi di ieri erano solo temporanei.
Un problema associato è che molto spesso la temperatura rilevata è quella del controller o di altri componenti nelle sue immediate vicinanze piuttosto che le memorie, dunque diventa più complicato stabilire una correlazione diretta con il dato fornito dai parametri SMART.

capito sai per caso dopo quanto tempo potrei fare questo tipo di test? ho un disco nuovo da 2 settimane.

la sparo li, potrebbe essere un discorso di eccitazione elettrica della cella oppure ho detto una cazzata?

ps: baio non si capisce da quanti gb è il test, hai valori molto alti e continui non li avevo mai visti prima d' ora su questo test.

s12a
04-09-2018, 13:58
capito sai per caso dopo quanto tempo potrei fare questo tipo di test? ho un disco nuovo da 2 settimane.

la sparo li, potrebbe essere un discorso di eccitazione elettrica della cella oppure ho detto una cazzata?

Potresti fare lo stesso test con HDTune ad esempio una volta al mese con le impostazioni suggerite in precedenza (Livello "accurato", blocchi da 8MB) e verificare se le prestazioni in lettura sequenziale, che dovrebbero in linea teorica mostrare una linea retta a 500+ MB/s, calano con il tempo.

Credo però che questo problema fosse presente principalmente con gli SSD con memorie TLC planari ed algoritmi di correzione errore non ancora evoluti come gli ultimi. Il Crucial MX500 ha memorie sempre NAND TLC, ma di tipo 3D e processo produttivo meno miniaturizzato (di conseguenza meno propenso a manifestare errori) e presumibilmente le ultime migliorie nella gestione degli errori (intrinsici della tecnologia usata) e wear leveling.

Con il tempo, in particolar modo ad SSD spento e temperature elevate, le celle di memoria perdono "carica" ed i dati memorizzati diventano via via sempre meno distinguibili dal "rumore di fondo". Più è bassa la temperatura, meno è accentuata la propensione a perdere carica, ma ad SSD alimentato lo stesso fenomeno rende più difficoltose anche la lettura e la programmazione delle memorie.

caurusapulus
05-09-2018, 10:23
Io utilizzo ancora un Intel X-25M da 80gb del 2009 in un MacMini!

Io ho in un vecchio laptop un OCZ Vertex II da 120GB che dal 2011 funziona ancora :eek:
Come i piu` sapranno, sono SSD rinomati per essere veramente poco affidabili.

Pess
05-09-2018, 12:17
Io ho in un vecchio laptop un OCZ Vertex II da 120GB che dal 2011 funziona ancora :eek:
Come i piu` sapranno, sono SSD rinomati per essere veramente poco affidabili.

Io ho un Vertex 2 da 64 GB del 2010 o 2011 che ha passato 2 notebook e 2 desktop e funziona ancora alla grande!

amd-novello
05-09-2018, 12:23
l'intel ha celle slc ora introvabili e praticamente eterne. e pensare che fra 3 ssd l'unico che si era rotto era un 330 con mlc che da un giorno all'altro è morto. la sfiga ci vede benissimo.

s12a
05-09-2018, 13:33
MX500 arrivato per l'altro PC; per questo che uso (e Windows) io ci rimetterò sopra il Samsung 840 250GB, su cui ho poco fa effettuato un secure erase.

https://i.imgur.com/oXQqE8z.png

Secondo Micron la write amplification si calcola con questi SSD con la formula (1+(F8/F7)); a sistema clonato corrisponde dunque a circa 1.11.

https://www.micron.com/~/media/documents/products/technical-note/solid-state-storage/tnfd23_m500_smart_attributes_calc_waf.pdf

F8 rappresenta le pagine di programmate sulle NAND in aggiunta a quelle host (quelle totali effettivamente programmate sulle NAND corrispondono dunque a F7+F8).

Grezzo
05-09-2018, 13:48
non mi è chiara una cosa, se il bench di HDTune legge i blocchi scritti, supponendo di avere un disco da 500gb con 100gb scritti non avrebbe senso fare il test su tutti gli 500gb, no? ho risultati negaivamente sorprendenti :D

ps: non funziona piu il momentus cache sull mx500, non so se dipende da un bug dell' ultima versione dell' utility o se si comporta diversamente rispetto all mx100, fatto sta che mi perde un 20% sul trasferimento in scrittura disco di grossi files, ho visto che ha dei momenti morti come se si interrompesse il flusso ram-->cache, anche la copia multipla da ssd vs 2/3 dischi esterni non funziona piu bene e non ho modo di provarlo sull mx100 dove ha funzionato bene per anni perchè l ho dato via.

Grezzo
05-09-2018, 13:53
https://imgur.com/DWxWK3N


https://imgur.com/6NtclOx

s12a
05-09-2018, 13:57
non mi è chiara una cosa, se il bench di HDTune legge i blocchi scritti, supponendo di avere un disco da 500gb con 100gb scritti non avrebbe senso fare il test su tutti gli 500gb, no? ho risultati negaivamente sorprendenti :D

Se i dati sono tutti all'inizio della partizione basterebbe effettivamente effettuare il test per i primi 100GB (20%) della capienza totale dell'SSD.

Lo spazio libero (trimmato) tipicamente fa riportare il massimo della velocità concessa dall'interfaccia; probabilmente l'SSD si permette qualche scorciatoia quando gli viene comandato dal sistema operativo di leggere blocchi di memoria corrispondenti ad esso.

Grezzo
05-09-2018, 14:01
Se i dati sono tutti all'inizio della partizione basterebbe effettivamente effettuare il test per i primi 100GB (20%) della capienza totale dell'SSD.

Lo spazio libero (trimmato) tipicamente fa riportare il massimo della velocità concessa dall'interfaccia; probabilmente l'SSD si permette qualche scorciatoia quando gli viene comandato dal sistema operativo di leggere blocchi di memoria corrispondenti ad esso.

allora aspetto che baio mi dica che il suo disco era completamente vuoto.. :D
perchè il mio pieno per 75gb ha un sacco di flessi nella parte iniziale che suppongo sia l' OS :D

s12a
05-09-2018, 14:07
allora aspetto che baio mi dica che il suo disco era completamente vuoto.. :D
perchè il mio pieno per 75gb ha un sacco di flessi nella parte iniziale che suppongo sia l' OS :D

Al momento della risposta non avevo visto questi screenshot nel post inserito appena successivamente a quando ho cliccato "rispondi":

https://imgur.com/DWxWK3N
https://imgur.com/6NtclOx

Se ti gira, potresti provare a deframmentare l'SSD (proprio così) per provocare una riscrittura e vedere se la velocità aumenta. Se ritorna a 500 MB/s in maniera più o meno omogenea allora questo calo è un comportamento intrinsico ed inevitabile degli ultimi SSD, e sta agli algoritmi di gestione interni decidere fino a che punto conviene far scendere le velocità prima di forzare internamente una riscrittura, cosa che sui Samsung 840 originali non sembra avvenire mai nella pratica.

In questo momento non sono su Windows, ma da quanto ricordi si può forzare sugli SSD aprendo un prompt dei comandi con permessi di amministratore e digitare:

defrag /D /A /V c:

(il flag /d forza il defrag, gli altri visualizzano più informazioni)

Il defrag di Windows con gli SSD però è piuttosto conservativo, forse ci sono tool migliori per fare questo lavoro.

EDIT: ad esempio DiskFresh: http://www.puransoftware.com/DiskFresh.html

http://www.fact-reviews.com/pics/DiskFresh.png


EDIT2: provato a proposito HDTune sul sistema appena clonato (160GB + altri 25 aggiunti in seguito) sul Crucial MX500; risultati come da aspettativa:

https://i.imgur.com/BuZDQxl.png

EDIT3: Ho anche effettuato un test al Samsung 840 250GB della discussione precedente, anch'esso dopo una clonazione e circa 100GB occupati in due partizioni. A dati freschi ovviamente corrispondono prestazioni praticamente massime; vedremo come caleranno. Prima della clonazione ho effettuato un secure erase. Ho anche lasciato 25GB non partizionati, ma è poco probabile che questo possa servire a qualcosa.

https://i.imgur.com/cLBWQZW.png

s12a
06-09-2018, 19:25
Ho provato ad effettuare al Samsung 840 250GB un test di velocità simile a quello di HDTune usando un tool da Linux (Fio (https://linux.die.net/man/1/fio)) appositamente configurato, quindi senza neanche entrare in Windows.

https://i.imgur.com/TdI6upB.png

Sostanzialmente la stessa situazione, solo con risultati più precisi.

Per qualche motivo c'è un lieve calo di velocità "a scalino" in concomitanza con il termine della partizione di sistema, ed un altro in mezzo alla partizione dati.

Questo era solo lievemente visibile con il test di HDTune direttamente dal sistema operativo.

Grezzo
06-09-2018, 19:36
se degrada sull mx500 allora dovresti vederlo dopo 1 mese come nel mio caso, sempre non sia colpa di qualcos' altro. appena ho tempo cero un software per il defrag che diskfreesh vuole la licenza

s12a
06-09-2018, 19:38
Per usi personali DiskFresh dovrebbe andare bene; hai provato a scaricarlo? Era prassi qualche anno fa utilizzare periodicamente questo programma con gli 840 e 840 EVO prima che uscissero i firmware cosiddetti correttivi.

Grezzo
06-09-2018, 19:46
sto usando auslogic, però deframmentare e spostare tutto nelle prime celle di un ssd non mi entusiasma nel lungo periodo, ho visto che c è un algoritmo ottimizza ssd ora controllo cosa fa e rifaccio una prova con hdtune

s12a
06-09-2018, 19:51
sto usando auslogic, però deframmentare e spostare tutto nelle prime celle di un ssd non mi entusiasma nel lungo periodo, ho visto che c è un algoritmo ottimizza ssd ora controllo cosa fa e rifaccio una prova con hdtune

Il punto è che Diskfresh legge e riscrive tutti i cluster contenenti dati, mentre le varie utility specifiche per la deframmentazione, a seconda degli algoritmi utilizzati, possono spostare i dati (e quindi rinfrescarli) così come decidere di non farlo.

Non c'è bisogno di fare questo lavoro sempre/periodicamente, è solo un test da effettuare una volta (per il momento) per verificare se effettivamente l'operazione ha qualche influenza sui risultati di HDTune anche su SSD più recenti come gli ultimi Crucial MX500.

Grezzo
06-09-2018, 20:15
finito con auslogic e la situaizone non è cambiata di una virgola, vedrò se riesco a reperire una versione di diskfreesh che non vuole la licenza.

edit: ora è partito non so che avesse l' altra volta...vediamo come va

\_Davide_/
06-09-2018, 20:30
Come configurate HD Tune per fare il test? Ho provato a fare un test "stock" sul 950 PRO e si fermava a 700 MB/s circa, mentre ad esempio Crystal Disk mark va ben oltre (non ricordo la cifra, ma oltre i 2000, anche con campioni da molti GB)

s12a
06-09-2018, 20:43
8 MB, slider impostato al massimo su "accurate".

Con il test fatto da Linux a proposito, ho usato blocchi da 32 MB e letto sequenzialmente tutto l'SSD in modalità raw per circa 7 minuti di test in totale. Il test di HDTune è più breve, almeno con la versione 2.55.

Grezzo
06-09-2018, 21:48
dopo diskfreesh ti confermo che i risultati sono migliorati, il flesso peggiore è 450mb e linea sempre oscillante ma su range dei 500, per intenderci non mi fa piu il flesso a 300mb iniziale.

https://imgur.com/5frzNvM

s12a
07-09-2018, 04:21
La presenza di picchi residui potrebbe essere causata dal fatto che DiskFresh usa le API di deframmentazione di Windows per effettuare l'operazione sulle partizioni NTFS (per quanto ricordi almeno) e non essere in grado di rinfrescare esattamente tutti i file (EDIT: più in dettaglio, cerca di farlo, ma Windows può rifiutarsi di toccare alcuni file ad esempio di sistema o contrassegnati come inamovibili).

In ogni caso a questo punto mi chiedo se questo sia intrinseco a tutti gli ultimi SSD prodotti da qualche anno a questa parte. Magari non è necessariamente un problema (che può causare inconvenienti come perdite di dati), ma una limitazione poco studiata, dove le massime prestazioni in lettura sono in realtà garantite solo con dati scritti entro un certo periodo di tempo.

È probabile che mantenendo l'SSD spento in un luogo caldo questo comportamento venga accelerato, ma è facile che la variazione non sia lineare, ma più ad "S" nel corso del tempo (relativamente veloce inizialmente => periodo di stabilità => accelerazione del declino).

Grezzo
07-09-2018, 13:22
non ho modo di verificare sull mx100 appena riesco gli mando un test, sul sandisk ti confermo che c è il medismo inconveniente sempre con dati di 1 mese e credo sia un tlc 3bit, l mx100 mi pare fosse una mlc. disk freesh scrive 500gb, non è una soluzione di lungo periodo accettabile se non in casi sporadici se il disco non mette una pezza al degrado.

ho notato che mandando i test l mx500 gracchia un po, non so se non me ne ero accorto prima e quindi l ha sempre fatto o se ha iniziato da poco, il tuo è rumoroso sotto stress?

s12a
07-09-2018, 14:03
non ho modo di verificare sull mx100 appena riesco gli mando un test, sul sandisk ti confermo che c è il medismo inconveniente sempre con dati di 1 mese e credo sia un tlc 3bit, l mx100 mi pare fosse una mlc. disk freesh scrive 500gb, non è una soluzione di lungo periodo accettabile se non in casi sporadici se il disco non mette una pezza al degrado.
Il fenomeno è con tutta probabilità presente anche sui MLC, solo più lento a manifestarsi. I SanDisk SSD Plus dovrebbero avere sia MLC che TLC a seconda della fortuna/sfortuna, mentre gli Ultra II (altro modello economico, ma di fascia leggermente più alta degli SSD Plus) dovrebbero essere solo TLC.

Ora rimane da capire in che modo la velocità diminuisce nel tempo. Non credo che accada linearmente, perché altrimenti tempo 5-6 mesi e l'SSD andrebbe a zero e la ritenzione dovebbe essere di almeno un anno ad SSD esausto (ad SSD nuovo dovrebbe essere di anni, solitamente >10 anni).

Dato che la velocità non è un parametro che rientra nelle specifiche JEDEC di ritenzione dati, la mia ipotesi è che il calo sia relativamente rapido solo inizialmente, od in altre parole che i 500 MB/s sequenziali siano una sorta di "forzatura" limitata nel tempo di questi SSD, e che questo comportamento non implica necessariamente dire che una perdita di dati sia imminente.

ho notato che mandando i test l mx500 gracchia un po, non so se non me ne ero accorto prima e quindi l ha sempre fatto o se ha iniziato da poco, il tuo è rumoroso sotto stress?
Sì, lo ha fatto fin da subito; me ne sono accordo durante un test iniziale con CrystalDiskMark dopo la clonazione del sistema operativo. È normale nel senso che un po' tutti gli SSD (anche MLC) emettono una specie di ronzio elettronico sotto stress; chi più, chi meno.

(Grossomodo sembrava a posto, non sono stato a vedere se le prestazioni massime in lettura/scrittura random ad alto queue depth potessero essere ulteriormente incrementate)

https://i.imgur.com/qmYMwv6.png

Grezzo
07-09-2018, 14:17
sto in attesa che esca una recensione sul bx500 perchè fra 2 settimane mi scade la possibilità di fare il reso del sandisk cacca che ho, anche se sulla fiducia essendo le stesse celle dell mx500 e lo stesso controller potrei anche prenderlo, mi freno il fatto che non abbia la dram cosa che il sandisk ha e quanto possa influire, non se lo incula nessuno sto disco :D

Paky
07-09-2018, 14:44
Cattivi! :O

a forza di dirgli male il prezzo del Sandisk plus 120GB è sceso ancora
32€

s12a
07-09-2018, 14:55
Mi chiedo se il calo sia già iniziato sul mio Samsung 840. Per il momento roba impercettibile, nel caso di sì.

2018-09-06: https://i.imgur.com/ZGrd51j.png
2018-09-07: https://i.imgur.com/3uNV6ux.png

sto in attesa che esca una recensione sul bx500 perchè fra 2 settimane mi scade la possibilità di fare il reso del sandisk cacca che ho, anche se sulla fiducia essendo le stesse celle dell mx500 e lo stesso controller potrei anche prenderlo, mi freno il fatto che non abbia la dram cosa che il sandisk ha e quanto possa influire, non se lo incula nessuno sto disco :D

Per quello che può valere, su Amazon un utente ha allegato nella sua recensione alcuni risultati sintetici della versione da 480GB, ed almeno da lì non sembra andare male. Tuttavia le prestazioni non sono tutto, e nessuno ha mai effettuato test di stabilità nel tempo delle stesse con i dati già memorizzati. Gli SSD di fascia economica potrebbero essere maggiormente colpiti da questo fenomeno.

Grezzo
07-09-2018, 14:56
ci sta un crystaldisk del bx480gb su amazzonia con valori non molto lontani dall mx500

pitx
07-09-2018, 20:50
Cattivi! :O

a forza di dirgli male il prezzo del Sandisk plus 120GB è sceso ancora
32€

il BX500 è attualmente a € 26,83 IVA inclusa (direttamente da crucial) :D

amd-novello
07-09-2018, 20:59
madonna che prezzi ridicoli

costano come costavano gli hd pari taglia

CrazyDog
07-09-2018, 21:18
il BX500 è attualmente a € 26,83 IVA inclusa (direttamente da crucial) :D

prezzone ne ordino subito uno per rianimare un'altro vecchio pc

rug22
07-09-2018, 21:39
In effetti...in due anni il prezzo è dimezzato.

Se accendessi più spesso il fisso(athlon 64 3800x2 con ddr1) ne prenderei uno, ma proprio non mi serve.

Certo che, avessi un portatile vagamente vetusto, altro che cambiare macchina,30€ e via.

Paky
07-09-2018, 21:51
il BX500 è attualmente a € 26,83 IVA inclusa (direttamente da crucial) :D

e spedizioni 0€ , quindi un MUST

però senza DRAM mi convince poco

amd-novello
07-09-2018, 22:25
la dram non serve a non far crollare le prestazioni quando si fa un uso intenso?

Grezzo
08-09-2018, 02:06
e spedizioni 0€ , quindi un MUST

però senza DRAM mi convince poco

serve qualche recensione, il modello da 120gb senza dram sembrerebbe spacciato però del low cost quali sono senza dram? drevo, kingston, pny?

s12a
08-09-2018, 04:35
Basta vederli aperti o conoscere il controller. Il Kingston A400 è un SSD DRAM-less, usa un Phison S11. Altri usano Silicon Motion SM2246XT/SM2256XT, anch'essi della stessa tipologia e piuttosto diffusi.

In genere vanno in crisi nel random intenso e condizioni di lettura e scrittura miste, oltre a far usurare le memorie più velocemente. Tuttavia non sono tutti necessariamente terribili. Dovrebbero inoltre in teoria consumare meno in idle, cosa importante per computer portatili.

Nel 2017 Tom's aveva comparato diversi SSD di questo tipo:
https://www.tomshardware.com/reviews/dramless-ssd-roundup,4833.html

O ad esempio c'è questa review di Anandtech dell'OCZ/Toshiba TR200:
https://www.anandtech.com/show/11868/the-toshiba-tr200-3d-nand-ssd-review/2


DRAM

https://i.imgur.com/lIpCBls.png


No DRAM

https://i.imgur.com/RESWhDO.png https://i.imgur.com/JFVNmEL.png

Paky
08-09-2018, 09:02
ricordo nel 2016 lo Zheino A1 senza Dram
https://www.hwupgrade.it/forum/showpost.php?p=43356407&postcount=10590

confermo 4k e random più fiacchi di un ultra plus sempre 64GB che invece la dram ce l'ha

Grezzo
08-09-2018, 12:47
il 120plus sandisk può avere come no la dram e non si capisce mai come fare capire se presento o meno.

s12a
08-09-2018, 13:34
il 120plus sandisk può avere come no la dram e non si capisce mai come fare capire se presento o meno.

Probabilmente principalmente le versioni di vecchia produzione con controller Marvell. Qui c'è una review di un esemplare da 480GB con tale controller e DRAM (il chip marchiato Nanya):

https://www.cowcotland.com/articles/2071-2/test-ssd-sandisk-ssd-plus-480-go.html

https://i.imgur.com/P327bXbl.png

C'è confusione a causa del fatto che il codice del prodotto con lo stesso identico nome commerciale può terminare con G25 o G26 (solo sul packaging fra l'altro) e non è detto che i componenti siano sempre gli stessi anche con lo stesso modello. Se si vogliono evitare lotterie probabilmente è meglio evitare del tutto i SanDisk SSD Plus.

Continuo a pensare che la recensione di Tom's hardware sia "strana" ed includa un esemplare con firmware fallato.

Grezzo
08-09-2018, 13:41
preso il crucial bx500 per un amico che vuole resuscitare un vecchio pc quando arriva lo provo e vedo se mollare o meno il sandisk da 120gb per il momento sono ampiamente insoddisfatto dalle velocità in scrittura non mi metto ad aprirlo per vedere se ha la dram

s12a
08-09-2018, 14:00
Non è la DRAM direttamente a determinare la velocità in scrittura in sequenziale, ma il buffer SLC che sul modello da 120GB è evidentemente di pochi GB. Quanti esattamente si potrebbe verificarlo con test mirati (ad esempio quello in scrittura di HDTune Pro, che però è distruttivo).

Immagino che con presenza di DRAM a parità di capienza utile possa esserci un buffer SLC più grande.

Trovo sia un'assurdità cambiarlo perché non fa uscire fuori numeri elevati nei benchmark. Se è lento all'uso effettivo è con tutta probabilità perché è un SSD DRAM-less con memorie non all'ultimo grido, non perché non mantiene i 500 MB/s in scrittura sequenziale.

Grezzo
08-09-2018, 15:10
lo cambio, o meglio lo cambia il proprietario perchè quando ci copia da una pendrive usb dopo pochi secondi i valori scendono a 40mb quindi non è assolutamente soddisfaciente per il suo utilizzo, nessun disco lo sarebbe sono valori che nemmeno un hdd ottiene

s12a
08-09-2018, 15:32
Mi chiedo che tipo di pendrive, quale tipo di dati siano stati utilizzati e quali condizioni di riempimento dell'SSD (sia mai che abbia una specie di cache dinamica con lo spazio libero/trimmato come per l'Intel 660p QLC) per far sì che la velocità cali a 40 MB/s "dopo pochi secondi".

Se non è soddisfatto per questi cali è facoltà sua cambiarlo, eh! Mi risulta però difficile credere che queste copie rappresentino l'uso normale dell'SSD. Sarebbe curioso verificare le prestazioni di quell'esemplare in maniera più "scientifica".

Grezzo
08-09-2018, 16:01
ho provato anche io l' ssd e purtroppo ha questi problemi, non c entra la velocità del pendrive od il tipo di files, ha questi limiti se dipende dall' architettura o da un difetto dell unità non so, in ogni caso se lui usa il pc essenzialmente per copiarci mkv e guardarseli chiaramente il prodotto non va bene per lui esistendono tanti altri a quei prezzi che vanno bene.

s12a
08-09-2018, 16:06
...

Sarebbe curioso verificare le prestazioni di quell'esemplare in maniera più "scientifica".

EDIT: o più semplicemente e con meno impegno, se ad esempio da CrystalDiskInfo c'è un rapporto molto elevato fra scritture NAND e scritture Host, come da questo screenshot:

https://i.imgur.com/WlnkIHr.png

67894 GB / 375 GB = 181

CrazyDog
08-09-2018, 18:08
preso il crucial bx500 per un amico che vuole resuscitare un vecchio pc quando arriva lo provo e vedo se mollare o meno il sandisk da 120gb per il momento sono ampiamente insoddisfatto dalle velocità in scrittura non mi metto ad aprirlo per vedere se ha la dram

preso anche io quello da 120gb, consegna gratuita, a prezzo inferiore ci sono solo i cinesi ma preferisco crucial tutta la vita
il bx500 è confermato che non ha la dram?

amd-novello
08-09-2018, 21:57
https://s15.postimg.cc/cniifouaz/immagine.png (https://postimages.org/)

Paky
08-09-2018, 22:12
focoso :D

Grezzo
08-09-2018, 22:22
preso anche io quello da 120gb, consegna gratuita, a prezzo inferiore ci sono solo i cinesi ma preferisco crucial tutta la vita
il bx500 è confermato che non ha la dram?

su reddit dicono che sia senza dram, e con involucro plastico per contenere al massimo i costi, il controller è praticamente lo stesso dell mx500 anche se la sigla finale è diversa (xt), non so cosa significhi

s12a
09-09-2018, 04:00
https://s15.postimg.cc/cniifouaz/immagine.png
Attenzione che questa versione di CrystalDiskInfo non è aggiornata e non riporta correttamente i dati. Le scritture NAND dovrebbero essere l'attributo EA, dunque 14244 GB, che comunque non sono esageratamente più elevate di quelle Host (6617 GB) come riportato da qualcuno di chi ha avuto problemi gravi prestazionali.

su reddit dicono che sia senza dram, e con involucro plastico per contenere al massimo i costi, il controller è praticamente lo stesso dell mx500 anche se la sigla finale è diversa (xt), non so cosa significhi
XT indica che è la versione DRAM-less di quel controller.

http://en.siliconmotion.com/A3.2_Overview_Detail.php?sn=7

amd-novello
09-09-2018, 10:54
focoso :D

qui dicono che funzionano meglio :cool:

ver nuova uguale
https://s15.postimg.cc/s6bti8jt7/image.png (https://postimg.cc/image/v0eyvolzb/)

la WA sembra molto piccola

Paky
09-09-2018, 11:14
qui dicono che funzionano meglio :cool:

ah già vero
managg.. il mio MX500 non passa mai i 35 , mi sa che lo devo avvitare alla scheda video :D


....comunque

il Sandisk plus offeso nell'orgoglio lima un altro euro
ora il 120GB si prende a 31€

s12a
09-09-2018, 11:29
ver nuova uguale
https://s15.postimg.cc/s6bti8jt7/image.png
la WA sembra molto piccola
Per togliersi ogni dubbio, puoi provare a vedere che cosa riporta il software ufficiale SanDisk (SanDisk SSD Dashboard (https://kb.sandisk.com/app/answers/detail/a_id/15108/~/sandisk-ssd-dashboard-support-information))?

amd-novello
09-09-2018, 11:40
no va bhe ma fa niente. andare bene va.

s12a
09-09-2018, 11:48
È più che altro per capire dove esattamente CrystalDiskInfo non riporta valori corretti. A vedere il valore raw di "Media Cicli cancellazione" sono stati effettuati 8 cicli di scrittura. Moltiplicati per la capienza lorda delle memorie (128 GB), fanno 1024 GB, che sono un valore più coerente con quello apparentemente riportato dalle scritture NAND (1074 GB).

C'è qualche errore da qualche parte ma non è chiaro dove esattamente. Si da' per scontato che il software SanDisk riporti valori corretti.

Grezzo
09-09-2018, 12:12
XT indica che è la versione DRAM-less di quel controller.

http://en.siliconmotion.com/A3.2_Overview_Detail.php?sn=7

eh vedi c hanno preso, tocca che aspettare a vedere come funziona, tanto la spedizione crucial mi sa di molto lenta prima di 10 giorni non arriva sicuro.

amd-novello
09-09-2018, 12:23
https://s15.postimg.cc/tmrxedrm3/image.png (https://postimages.org/)

ecco. quella specifica del produttore sono le slc

poi c'è

https://s15.postimg.cc/43zl1id8r/image.png (https://postimages.org/)

s12a
09-09-2018, 12:38
ecco. [...]

Grazie, interessante il fatto che vengano suddivisi i parametri fra porzione SLC e TLC della memoria. Questo complica un po' le cose per il calcolo della write amplification.

Fa impressione però vedere che l'usura riportata dall'attributo denominato Media Wearout Indicator sia già al 5.45%.

amd-novello
09-09-2018, 12:42
meno di 7 tera scritti 5% vuol dire che sono slc no?

il crucial in firma con mlc mi sembra più duraturo anche se è grande il doppio quindi è facilitato

s12a
09-09-2018, 12:55
La questione è complessa.

5.45% considerando solo la parte TLC (8 cicli di scrittura in media) vorrebbe dire che arriverebbe al 100% a malapena a 150 cicli di scrittura in totale.

Tuttavia anche le scritture nella parte SLC (che in realtà sono le stesse celle di memoria TLC, ma usate in scrittura in maniera diversa) hanno una loro incidenza sull'usura delle memorie. Quindi occorrerebbe tenere anche questo fattore in considerazione, ma non saprei quantificare la cosa.

Rapportando però questo valore percentuale all'ammontare totale di scritture Host effettuato fin'ora, ossia 6619 GB, allora abbiamo che al ritmo attuale si arriverebbe al 100% a circa 120000 GB di scritture Host, che sarebbero un valore tutto sommato accettabile per un SSD da 120GB TLC usato in ambiti consumer.

amd-novello
09-09-2018, 13:10
120 tera bastano e avanzano eheh

Inviato dal mio WAS-LX1A utilizzando Tapatalk

s12a
09-09-2018, 13:26
Per quello che può valere, io con il mio da 480GB ho appena raggiunto 56 TB di scritture Host dopo oltre 4 anni di utilizzo, e non sono stato a trattarlo con i guanti.

A meno di esigenze specifiche 120TB dovrebbero essere abbastanza per usarlo svariati anni, ma probabilmente con usi più intensi (e conseguentemente write amplification maggiore) questo valore sarebbe stato ben più basso. Nel tuo caso hai globalmente una write amplification effettiva (sommando i cicli di scrittura della parte TLC a quelli implicati dalle scritture SLC, non indicati direttamente) probabilmente molto vicina a 1.0x.

Con usi intensivi probabilmente si arriverebbe al 100% sui 30-40 TB di scritture Host, che poi è quello che in genere viene garantito da altri produttori con SSD TLC di capienza simile.

Grezzo
09-09-2018, 13:43
io sto quasi a 5tbw in 20 giorni che ho il disco e mi sono trattenuto, se rippo pesante faccio 10tbw al mese come niente senza il momentus cache attivo :cry:

s12a
09-09-2018, 14:03
Se effettuare in media 250GB ed oltre di scritture al giorno è la normalità (...) credo che siamo ampiamente nell'ambito delle esigenze particolari. Non andremo ad usare un SSD TLC da 120GB entry level per questi lavori, o perlomeno non usarlo direttamente.

amd-novello
09-09-2018, 14:18
56 tera in 4 anni? non c'è bisogno di dire che non lo si è trattato coi guanti.

:sofico:

caurusapulus
09-09-2018, 17:17
ah già vero
managg.. il mio MX500 non passa mai i 35 , mi sa che lo devo avvitare alla scheda video :D


....comunque

il Sandisk plus offeso nell'orgoglio lima un altro euro
ora il 120GB si prende a 31€

29,44 ora :O
Sandisk oppure Crucial BX500 dal sito Crucial? Ci sono ben 2,61 euro a favore del Crucial di differenza :D
Lo devo usare come storage esterno veloce, per archiviare roba che uso ogni tanto. Si e` rotta la mia SD da 128GB e piuttosto che spendere 30 euro per una nuova sd, prendo un SSD.

\_Davide_/
09-09-2018, 21:17
Se effettuare in media 250GB ed oltre di scritture al giorno è la normalità (...) credo che siamo ampiamente nell'ambito delle esigenze particolari. Non andremo ad usare un SSD TLC da 120GB entry level per questi lavori, o perlomeno non usarlo direttamente.

Concordo :)

Paky
09-09-2018, 21:40
a proposito di ritenzione dei dati
mi sono appena ricordato di avere un pc con Sandik ultra plus 64GB che giace da ben 3 anni e 1 mese in garage :eek:

a giorni vado a recuperarlo ....

pitx
09-09-2018, 21:54
a proposito di ritenzione dei dati
mi sono appena ricordato di avere un pc con Sandik ultra plus 64GB che giace da ben 3 anni e 1 mese in garage :eek:

a giorni vado a recuperarlo ....

un ultra plus 64gb in garage?
posso capire un HD... ma un SSD?

Fable
09-09-2018, 22:10
un ultra plus 64gb in garage?
posso capire un HD... ma un SSD?

;)

\_Davide_/
09-09-2018, 22:30
un ultra plus 64gb in garage?
posso capire un HD... ma un SSD?

Io attualmente ho fermi un 850 PRO ed un MX500 entrambi da 500 GB!

:eek:

Nicodemo Timoteo Taddeo
10-09-2018, 07:50
a proposito di ritenzione dei dati
mi sono appena ricordato di avere un pc con Sandik ultra plus 64GB che giace da ben 3 anni e 1 mese in garage :eek:

a giorni vado a recuperarlo ....

A giorni? Il garage ce l'hai in Patagonia? :D


A parte gli scherzi, tienici informati, la cosa penso interessi un po' tutti. Le chiavette USB vengono date per minimo ragionevole dieci anni e pare che effettivamente sia così, per gli SSD ci sono parecchie controversie al riguardo. Meglio verificare sul campo, no? :)

s12a
10-09-2018, 08:17
A parte gli scherzi, tienici informati, la cosa penso interessi un po' tutti. Le chiavette USB vengono date per minimo ragionevole dieci anni e pare che effettivamente sia così, per gli SSD ci sono parecchie controversie al riguardo. Meglio verificare sul campo, no? :)

I >10 anni dovrebbero valere in generale per le memorie NAND vergini, ma più aumenta la loro usura, più si accorcia questo periodo, e dato che le memorie verranno usate per più di una scrittura, non è sempre così utile conoscere questo dato.

A proposito, Samsung a riguardo ad esempio riporta questo in una brochure dei propri SSD enterprise (mi ricordo di aver letto esempi simili in altre, ma questo è quanto ho trovato al momento):

https://www.samsung.com/semiconductor/global.semi.static/Samsung_Memory_Solutions_for_Enterprise_Computing-1.pdf

Retention: Retention refers to the time that the cells in an SSD are capable of keeping the data before a refresh needs to take place. A virgin SSD has up to 10 years retention based on the behavior of the Flash cell it‘s built upon. The more often the Flash cells are written to, the more the cell wears off and the leakage current increases. After consumption of TBW the retention declines to ~3 months

Solitamente i valori di durata in TBW per gli SSD consumer sono dichiarati per una ritenzione residua di un anno. Questo implica anche che questo valore è principalmente in funzione della ritenzione desiderata (oltre che della temperatura di stoccaggio "a freddo").

Altra cosa: questo non dice nulla su come i dati siano letti. Suppongo che se magari dati memorizzati per un certo periodo di tempo vengono letti a 20 MB/s o giù di lì come succede con alcuni Samsung 840, ma senza problemi per la loro integrità, siano effettivamente considerati come ritenuti con successo.

Quindi mi aspetto che magari un test di lettura sequenziale "raw" come quello di HDTune che si potrebbe effettuare in questo caso:

a proposito di ritenzione dei dati
mi sono appena ricordato di avere un pc con Sandik ultra plus 64GB che giace da ben 3 anni e 1 mese in garage :eek:
a giorni vado a recuperarlo ....

Magari riporterà velocità inferiori rispetto al massimo (con grafico simile a quello che avevo allegato diversi commenti fa), ma se l'SSD non è usurato al 100% probabilmente riuscirà con successo e non ci sarà perdita di informazioni.

Pess
10-09-2018, 08:23
I >10 anni dovrebbero valere per in generale per le memorie NAND vergini, ma più aumenta la loro usura, più si accorcia questo periodo, e dato che le memorie verranno usate per più di una scrittura, non è sempre così utile conoscere questo dato.

A proposito, Samsung a riguardo ad esempio riporta questo in una brochure dei propri SSD enterprise (mi ricordo di aver letto esempi simili in altri, ma questo è quanto ho trovato al momento):

https://www.samsung.com/semiconductor/global.semi.static/Samsung_Memory_Solutions_for_Enterprise_Computing-1.pdf



Solitamente i valori di durata in TBW per gli SSD consumer sono dichiarati per una ritenzione residua di un anno. In altre parole questo valore è principalmente in funzione della ritenzione desiderata (oltre che della temperatura di stoccaggio "a freddo").

Altra cosa: questo non dice nulla su come i dati siano letti. Suppongo che se magari dati memorizzati per un certo periodo di tempo vengono letti a 20 MB/s o giù di lì come succede come alcuni Samsung 840, ma senza problemi per la loro integrità, siano effettivamente considerati come ritenuti con successo.

Quindi mi aspetto che magari un test di lettura sequenziale "raw" come quello di HDTune che si potrebbe effettuare in questo caso:



Magari riporterà velocità inferiori rispetto al massimo (on grafico simile a quello che avevo allegato diversi commenti fa), ma se l'SSD non è usurato al 100% probabilmente riuscirà con successo e non ci sarà perdita di informazioni.

Quoto tutto al 100%! :)

s12a
10-09-2018, 15:06
Risultati inaspettati per il Crucial MX500 500GB (~465 GiB) dopo soli 5 giorni di attività (continuata, senza mai essere spento). Il grafico ottenuto è riproducibile e notare che lo spazio corrispondente a quello libero fa ottenere una linea retta.

https://i.imgur.com/nsospO3.png

Da nuovo/appena installato era così:

https://i.imgur.com/BuZDQxl.png

Grezzo
10-09-2018, 16:42
aspetto non trascurabile quello del decadimento delle prestazioni dell mx500, hai modo di paragonarlo con altri dischi di altre marche di simile taglio per vedere come si comportano ?

s12a
10-09-2018, 16:48
Di SSD TLC disponibile ho solo il Samsung 840 250GB menzionato in precedenza che al momento sto usando come SSD secondario senza praticamente alcuna attività (ne ho un altro da 120GB usato su un altro computer non disponibile per questi test).

Ho però una vaga sensazione che usato in questo modo il calo nel tempo sia assai inferiore, oppure che lo spazio di overprovisioning assegnato inizialmente stia avendo qualche effetto positivo. Un'altra possibilità è che leggere tutti i settori logici dell'SSD sequenzialmente (cosa che HDTune non fa neanche con il test impostato su "Accurate", almeno con la versione free) abbia in qualche modo un'influenza positiva sui risultati a lungo termine.

CrazyDog
10-09-2018, 16:53
eh vedi c hanno preso, tocca che aspettare a vedere come funziona, tanto la spedizione crucial mi sa di molto lenta prima di 10 giorni non arriva sicuro.

a me è arrivata la mail di conferma della spedizione, avevo ordinato sabato sera

Grezzo
10-09-2018, 17:01
a me è arrivata la mail di conferma della spedizione, avevo ordinato sabato sera

si arrivata anche a me in questo preciso momento, ho però una transazione di 27,09€ su paypal invece dei 26 e spicci è successo anche a te?

CrazyDog
10-09-2018, 17:06
si arrivata anche a me in questo preciso momento, ho però una transazione di 27,09€ su paypal invece dei 26 e spicci è successo anche a te?

si non so il motivo, l'importo totale dell'ordine era 26,83€ mentre il pagamento paypal è di 27,09€, che siano tipo delle commissioni paypal?

Grezzo
10-09-2018, 17:41
dovrebbe essere il chip che mettono per verificare che il conto sia attivo, controlla se te lo stornano nei prox giorni dovrebbe essere cosi

CrazyDog
10-09-2018, 17:57
dovrebbe essere il chip che mettono per verificare che il conto sia attivo, controlla se te lo stornano nei prox giorni dovrebbe essere cosi

a ok controllerò:)

Paky
10-09-2018, 20:24
Risultati inaspettati per il Crucial MX500 500GB (~465 GiB) dopo soli 5 giorni di attività (continuata, senza mai essere spento). Il grafico ottenuto è riproducibile e notare che lo spazio corrispondente a quello libero fa ottenere una linea retta.

https://i.imgur.com/nsospO3.png

il mio da 250GB si comporta in modo analogo
pieno per 64GB

https://s33.postimg.cc/dqlcsiqrj/mx500-250_GB.png[

e tanto per cambiare L'MX500 da 250 è sceso al minimo storico di 56.5€
se avete pure qualche sconto è un affare

s12a
10-09-2018, 20:38
il mio da 250GB si comporta in modo analogo
pieno per 64GB
La parte iniziale è probabilmente corrispondente ai file di Windows. Da quanto tempo è stato installato o clonato il sistema operativo nel tuo caso?

Paky
10-09-2018, 21:47
Clonato il 22/05 , preso sul warehouse
quindi non era nuovo di pacca , c'erano già stati scritti 289GB

ma non vi era traccia delle precedenti partizioni/file, quindi hanno operato un secure erase prima di metterlo nuovamente in vendita
qui il post con i primi bench -> LINK (https://www.hwupgrade.it/forum/showpost.php?p=45560455&postcount=14877)

per la cronaca da allora è già sceso a 99% di vita con 1.3TB scritti

https://s33.postimg.cc/7yufcr8j3/mx500.png

RobbyBtheOriginal
10-09-2018, 23:23
e tanto per cambiare L'MX500 da 250 è sceso al minimo storico di 56.5€
se avete pure qualche sconto è un affare

Conviene prenderlo al posto di un bx200 al tempo preso per vecchia macchina ma ora passato sul nuovo? S.o. e programmi giochi ecc usato senza timori

by Tapaparla®©

Grezzo
11-09-2018, 00:09
io penso che il secure erase lo faccia amazon per sicurezza. qualcuno potrebbe confermarlo?

s12a
11-09-2018, 04:03
Clonato il 22/05 , preso sul warehouse
quindi non era nuovo di pacca , c'erano già stati scritti 289GB

ma non vi era traccia delle precedenti partizioni/file, quindi hanno operato un secure erase prima di metterlo nuovamente in vendita
qui il post con i primi bench -> LINK (https://www.hwupgrade.it/forum/showpost.php?p=45560455&postcount=14877)
Era più che altro per capire il possibile andamento nel tempo di questo declino prestazionale, dando per assunto che i blocchi di memoria corrispondenti a quei file non siano stati ancora toccati dall'SSD o dall'Host.

Se in circa 1 settimana i picchi negativi in lettura sequenziale passano da 520 a 400 MB/s ed in 12 settimane arrivano a 250 MB/s, questo supporterebbe la mia ipotesi che il calo non sia lineare nel tempo e che sia più veloce nel periodo iniziale.

A proposito, 250 GB sono 232.83 GiB, dunque 64 GB (in realtà GiB) corrisponderebbero a poco meno del 30% di spazio occupato, un valore grossomodo coerente con quello che mostra il grafico di HDTune nel tuo caso.

per la cronaca da allora è già sceso a 99% di vita con 1.3TB scritti

https://s33.postimg.cc/7yufcr8j3/mx500.png
Un indicatore più preciso potrebbe essere "Media cancellazione blocco". Per il momento è al 99% con 16 cicli di scrittura. Mi sembra di ricordare che le memorie NAND 3D TLC Micron siano date per 1500 cicli, dunque sarebbe effettivamente a poco più dell'1% di usura.

EDIT: però 16 cicli vorrebbe dire per 256 GiB di capienza lorda 4 TiB di scritture sulle memorie. Questo implicherebbe una write amplification di circa 3, ma dai dati questa risulta essere la metà. Mi chiedo se anche qui (come sul SanDisk SSD Plus) ci sia una suddivisione interna fra parte SLC e TLC a complicare le cose per questi calcoli.

s12a
11-09-2018, 08:54
Mi sono accorto di un'altra cosa dal Crucial MX500 recentemente installato su un altro PC qui a casa:

https://i.imgur.com/oxZ1QRo.png

"Power on hours" è troppo basso. L'SSD è acceso da 6 giorni, a meno che non calcoli solo il tempo in cui effettivamente attivo e rimuova i periodi di "sleep" della gestione energetica interna.

La write amplification sembra essere troppo elevata. Se è calcolata come 1+(F8/F7) come suggerito da Crucial [1], allora equivale a 2.84x globalmente. Ma calcolata differenzialmente dall'ultimo aggiornamento dei dati SMART è pari a 6.33x :eek:.

Questo sembra essere in parte supportato dal numero di cicli di scrittura in media effettuato già di 2 (1024 GiB) mentre le scritture Host ammontano solamente a 308 GiB.

Ho provato a vedere se ci sono aggiornamenti firmware ma pare che l' M3CR020 (installato di fabbrica e mai offerto come aggiornamento) sia equivalente all'M3CR022 che viene offerto a chi ha l'M3CR010. Il Crucial Storage Executive non riporta aggiornamenti disponibili.


EDIT
[1] Fonte: https://www.micron.com/~/media/documents/products/technical-note/solid-state-storage/tnfd23_m500_smart_attributes_calc_waf.pdf

Grezzo
11-09-2018, 14:47
https://i.imgur.com/UFJjSYS.jpg

Grezzo
11-09-2018, 14:49
A quanto avete impostato l' over P. ? io ho messo 1% quindi 5gb dite che è meglio salire un altro poco ?

CrazyDog
11-09-2018, 14:52
ho un vecchio ssd che è come andato in blocco dopo una serie di falsi avvii del computer, ora non viene più visto da bios ne da windows, ho letto che alcuni hanno risolto problemi simili con il cosiddetto power cycle, ne sapete qualcosa? ho provato la guida di crucial ma non va, consigli?

s12a
11-09-2018, 14:55
A quanto avete impostato l' over P. ? io ho messo 1% quindi 5gb dite che è meglio salire un altro poco ?

Quanto ai dati da CrystalDiskInfo è più comodo se sono visualizzati in formato decimale piuttosto che esadecimale.

In teoria se il trim è abilitato non occorre impostare overprovisioning. Se vuoi aumentare tale spazio, un'idea potrebbe essere diminuire lo spazio partizionato in maniera che in totale ammonti a 480 GB (1 GB = 1,000,000,000 bytes) / 447 GiB, ottenendo una capienza simile a quella degli SSD della stessa fascia con maggiore quantitativo di overprovisioning di fabbrica rispetto a questi Crucial.

ho un vecchio ssd che è come andato in blocco dopo una serie di falsi avvii del computer, ora non viene più visto da bios ne da windows, ho letto che alcuni hanno risolto problemi simili con il cosiddetto power cycle, ne sapete qualcosa? ho provato la guida di crucial ma non va, consigli?

Oltre che provare su un altro PC con preferibilmente un altro cavo SATA, non saprei.

Power cycle suppongo sia semplicemente spegnere e riaccendere il PC a freddo, togliendo completamente l'alimentazione e facendo scaricare i condensatori dell'alimentatore e della scheda madre (ad esempio semplicemente premendo il pulsante di accensione a corrente staccata). A volte questa procedura può risolvere problemi.

@Liupen
11-09-2018, 16:38
@s12a stò cercando un'alternativa plausibile all'ipotesi logica che hai fatto, ca il decadimento del segnale elettronico sul gate della NAND (quindi maggiore tempo di lettura) in funzione del tempo di permanenza del segnale.
Per inciso, trovo anomala la cosa...nel senso il calo delle prestazioni mi sembra troppo marcato anche valendo l'ipotesi che formulo sotto.

Ipotesi: se questo stato di bassa prestazione di questi primi blocchi già scritti, fosse legato ad un Wear Levelling che ancora non agisce perchè il controller sa che ci sono blocchi vergini unito al fatto che il contenuto OS è fatto per la maggior parte da dati "freddi" o "statici"?
Ti sembra sensata?

Se confrontato con gli ssd a cui posso mettere mano attualmente (tutti con diversi n. di cicli sulle spalle), questi hanno un tracciato di lettura alto/basso ma regolare, chi più chi meno la soglia di velocità di lettura seq. dichiarata dal costruttore.

In questa situazione, può essere che quando la mappatura FTL arrivi ad un certo punto del 1° ciclo o lo passi, il controller inizi a far funzionare l'algoritmo di livellamento spostando i blocchi (principalmente a seguito della sincronizzazione TRIM e della preparazione dei blocchi per la scrittura) e in un ipotetico test della velocità di lettura raw, portando ad un grafico pressoché piano.

Questa ipotesi funzionerebbe però se fosse dimostrato che in condizioni "normali" (cioè con cicli >1) il tuo Crucial MX500 ha una velocità di lettura raw delle celle nella media di quelle ora iniziali e comunque sotto i 522 MB/s (media a SSD vergine).

Riguanrdo al software Crystaldiskinfo... molta perplessità, concordo in pieno.
Come fai con 331GB (calcolati sugli LBA) ad essere al secondo ciclo?
Calcolo TBW 0.66 quindi dovrebbe segnare 0 P/E
Crucial Storage Executive?

Tra l'altro, appunto, forse ti aspetta un agg. firmware
http://www.crucial.com/support/firmware.aspx
Data di rilascio: 19/06/2018
L'aggiornamento da M3CR010 a M3CR022 è un aggiornamento facoltativo per gli SSD sul campo, ma è consigliato se l'MX500 presenta uno dei seguenti problemi:
Tempo di preparazione migliorato dallo stato di basso consumo di DEVSLP.
Miglioramento delle prestazioni TRIM e Wear Leveling.
Migliorato il passaggio degli errori SATA.
Migliore compatibilità con alcune utilità di crittografia di terze parti TCG Opal 2.0 (questa modifica non ha effetto su MS BitLocker).

s12a
11-09-2018, 17:57
Ipotesi: se questo stato di bassa prestazione di questi primi blocchi già scritti, fosse legato ad un Wear Levelling che ancora non agisce perchè il controller sa che ci sono blocchi vergini unito al fatto che il contenuto OS è fatto per la maggior parte da dati "freddi" o "statici"?
Ti sembra sensata?
Personalmente ritengo che il wear leveling sia generalmente molto meno aggressivo ad operare sui dati statici di quanto si pensi comunemente. Questo valeva già fin dai primi Samsung 840 usciti ad inizio 2012. Probabilmente in particolar modo sugli SSD TLC si preferisce privilegiare la durata a lungo termine dei singoli blocchi di memoria che l'omogeneità di usura, che non è "gratis" (spostare dati qua e là comporta effettuare scritture).


Se confrontato con gli ssd a cui posso mettere mano attualmente (tutti con diversi n. di cicli sulle spalle), questi hanno un tracciato di lettura alto/basso ma regolare, chi più chi meno la soglia di velocità di lettura seq. dichiarata dal costruttore.

In questa situazione, può essere che quando la mappatura FTL arrivi ad un certo punto del 1° ciclo o lo passi, il controller inizi a far funzionare l'algoritmo di livellamento spostando i blocchi (principalmente a seguito della sincronizzazione TRIM e della preparazione dei blocchi per la scrittura) e in un ipotetico test della velocità di lettura raw, portando ad un grafico pressoché piano.

Se sono SSD con memorie nand MLC, potrebbe essere che il wear leveling con questi tenda ad essere più aggressivo. Un indicatore di questo potrebbe ad esempio essere una write amplification con usi normali più vicina a 3x piuttosto che 1x. Questa è la situazione che ho ad esempio con il mio SanDisk Extreme II 480GB (MLC).


Questa ipotesi funzionerebbe però se fosse dimostrato che in condizioni "normali" (cioè con cicli >1) il tuo Crucial MX500 ha una velocità di lettura raw delle celle nella media di quelle ora iniziali e comunque sotto i 522 MB/s (media a SSD vergine).

Non ho modo di verificare questo al momento. Ci vorrebbe un secure erase oppure cancellare una porzione consistente dei dati presenti. Al momento c'è un gioco da 60GB installato sopra, dunque si potrà in parte verificare entro qualche settimana. Credo che quasi sicuramente la velocità verrà ripristinata alle condizioni iniziali, almeno per quello che riguarda i settori corrispondenti al gioco cancellato, perché è lo stesso comportamento che ho osservato con il Samsung 840 250GB con lo stesso PC.


Riguanrdo al software Crystaldiskinfo... molta perplessità, concordo in pieno.
Come fai con 331GB (calcolati sugli LBA) ad essere al secondo ciclo?
Calcolo TBW 0.66 quindi dovrebbe segnare 0 P/E
Crucial Storage Executive?
Crucial Storage Executive riporta gli stessi valori di CrystalDiskInfo, senza aggiungere nessun'altra informazione in più.

Tra l'altro, appunto, forse ti aspetta un agg. firmware
http://www.crucial.com/support/firmware.aspx
Data di rilascio: 19/06/2018
L'aggiornamento da M3CR010 a M3CR022 è un aggiornamento facoltativo per gli SSD sul campo, ma è consigliato se l'MX500 presenta uno dei seguenti problemi:
Tempo di preparazione migliorato dallo stato di basso consumo di DEVSLP.
Miglioramento delle prestazioni TRIM e Wear Leveling.
Migliorato il passaggio degli errori SATA.
Migliore compatibilità con alcune utilità di crittografia di terze parti TCG Opal 2.0 (questa modifica non ha effetto su MS BitLocker).
Avevo già notato questo aggiornamento, ma Crucial Storage Executive non segnala nulla a riguardo. Non ho provato a forzarlo manualmente.

In questo post ufficiale viene riportato che l'M3CR020 e l'M3CR022 sono equivalenti. Sembra che un nuovo firmware sia in fase di preparazione e che sarà disponibile anche per chi ha l'M3CR020:

https://forums.crucial.com/t5/Crucial-SSDs/Feedback-Thread-Firmware-M3CR022-for-the-MX500/m-p/185855/highlight/true#M56707

So to make a long story short M3CR020 = M3CR022.

020 was released on select drives prior to shipment, but the 020 firmware was never and update option we've provided online. When the firmware was officially released as an update it was M3CR022.

To further make things confusing Storage Executive doesn't have a clear way to tell you the firmware is updated even though the number is different, it just says it's already updated when you try to update, which is correct.

Why did they decide to do a limited release with different numbers for the same actual update? I've asked around and couldn't get an answer. I have been sure to leave feedback to our engineering that this isn't an optimal way to release updates. I've never seen this before with any other SSD firmware update we've done, so hopefully this is the only time they do this.

Good news is, on the next update for the MX500 M3CR023? (or whatever number it has), regardless of what firmware version you drive has 020 or 022, you should be able to update with no issue.

Crucial_Benny, Micron CPG Support, US

Grezzo
11-09-2018, 18:50
hai ragione non mi ero accorto, l avevo tolto e reinstallato giusto adesso e son rimasti di default esadecimali

s12a
12-09-2018, 08:06
Sto provando a fare logging dei dati SMART del Crucial MX500. Credo che "Power On" hours sia il tempo di attività effettivo dell'SSD tenendo in considerazione i periodi di sleep della gestione energetica, dato che non sembra per il momento esserci una correlazione fissa fra tempo reale e dato riportato dall'attributo SMART corrispondente.

https://i.imgur.com/XB5nCgX.png

Un'ora di "power on hours" in condizioni di normale inattività sembra corrispondere a 4-5 ore reali. Proverò a fare in modo di far usare l'SSD in maniera continua in lettura per la prossima ora o due per vedere se questa ipotesi ha senso.


EDIT: Ho preparato un foglio di calcolo apposito per monitorare la situazione, unitamente ad un semplice script per prelevare i dati SMART con smartctl (https://www.smartmontools.org/), a proposito:

https://i.imgur.com/uqMImKA.png

CrazyDog
12-09-2018, 11:19
Oltre che provare su un altro PC con preferibilmente un altro cavo SATA, non saprei.

Power cycle suppongo sia semplicemente spegnere e riaccendere il PC a freddo, togliendo completamente l'alimentazione e facendo scaricare i condensatori dell'alimentatore e della scheda madre (ad esempio semplicemente premendo il pulsante di accensione a corrente staccata). A volte questa procedura può risolvere problemi.

ho seguito questa guida ma non ha funzionato
https://forums.crucial.com/t5/Crucial-SSDs/Why-did-my-SSD-quot-disappear-quot-from-my-system/ta-p/65215

un'altro a cui è successo ha fatto diversamente, ovvero attaccare solo l'alimentazione sull'ssd per 20-30min poi a pc acceso collegare il cavo sata e riavviare, nemmeno in questo modo ho risolto:(

s12a
12-09-2018, 11:34
Proverò a fare in modo di far usare l'SSD in maniera continua in lettura per la prossima ora o due per vedere se questa ipotesi ha senso.

Aggiornamento: dopo una rapida prova la situazione non sembra essere cambiata più di tanto. Probabilmente il dato non è direttamente correlato all'attività del controller dell'SSD come ipotizzavo.

ho seguito questa guida ma non ha funzionato
https://forums.crucial.com/t5/Crucial-SSDs/Why-did-my-SSD-quot-disappear-quot-from-my-system/ta-p/65215

un'altro a cui è successo ha fatto diversamente, ovvero attaccare solo l'alimentazione sull'ssd per 20-30min poi a pc acceso collegare il cavo sata e riavviare, nemmeno in questo modo ho risolto:(

Se non funziona né un metodo né l'altro consigliato da Crucial ho paura che l'SSD potrebbe essere deceduto. Di quale modello si tratta / quanto era vecchio?

CrazyDog
12-09-2018, 11:35
Se non funziona né un metodo né l'altro consigliato da Crucial ho paura che l'SSD potrebbe essere deceduto. Di quale modello si tratta / quanto era vecchio?

era un crucial bx200, non tanto vecchio
ma andava benissimo, poi il pc in cui era montato ha fatto una serie di fake boot all'accensione, tipo 5-6 prima di partire, e non l'ha più rilevato:cry:

s12a
12-09-2018, 11:52
Quello che mi preoccupa un po' è che è dotato di una versione precedente dello stesso controller usato sull'MX500 (Silicon Motion SM2256 contro SM2258) con cui personalmente non ho ancora problemi ma ho qualche perplessità riguardo i dati SMART che riporta. Al debutto del BX200 questo controller era considerato come un'alternativa economica ai Marvell usati sui modelli di fascia superiore.

Mi chiedo se la rimozione dal BX200 rispetto alla serie MX degli accorgimenti (condensatori, ecc) usati per cercare di salvaguardare i dati memorizzati possa avere avuto una qualche incidenza sull'affidabilità, anche a livello elettronico. Da quello che riporti non sembra proprio dare segnali di vita.

Grezzo
12-09-2018, 11:58
se ti può consolare mi è successo lo stesso con un SK H. da 500gb, non me lo rilevava più, lasciato fermo un paio di settimane ha ripreso ha funzionare, non ho la minima idea del perchè l' avevo già seppellito nel cimitero degli harddisk.

CrazyDog
12-09-2018, 12:00
Quello che mi preoccupa un po' è che è dotato di una versione precedente dello stesso controller usato sull'MX500 (Silicon Motion SM2256 contro SM2258) con cui personalmente non ho ancora problemi ma ho qualche perplessità riguardo i dati SMART che riporta. Al debutto del BX200 questo controller era considerato come un'alternativa economica ai Marvell usati sui modelli di fascia superiore.

Mi chiedo se la rimozione dal BX200 rispetto alla serie MX degli accorgimenti (condensatori, ecc) usati per cercare di salvaguardare i dati memorizzati possa avere avuto una qualche incidenza sull'affidabilità, anche a livello elettronico. Da quello che riporti non sembra proprio dare segnali di vita.

esatto non viene più rilevato ne da bios ne da windows, l'ho provato anche esterno con un adattatore sata-usb e anche così il nulla :(

se ti può consolare mi è successo lo stesso con un SK H. da 500gb, non me lo rilevava più, lasciato fermo un paio di settimane ha ripreso ha funzionare, non ho la minima idea del perchè l' avevo già seppellito nel cimitero degli harddisk.

proverò a lasciarlo fermo per un pò anche perchè non so cos'altro poter fare

Grezzo
12-09-2018, 13:20
stornato il costo su paypal adesso risulta corretto 26,83€

s12a
12-09-2018, 15:41
Aggiornamento sul Samsung 840 250GB che precedentemente ha mostrato cali in lettura sequenziale fino a 27 MB/s.

Dopo una settimana dalla clonazione circa ed un benchmark di velocità al giorno da Linux effettuato dall'altro SSD, non sembrano esserci stati ancora cali significativi. Forse qualcosa nella parte iniziale, appena accennato con l'altro test. È difficile riprodurre sempre esattamente gli stessi picchi test dopo test da Windows a causa delle operazioni in background che a sistema poco utilizzato sembrano essere maggiori del dovuto (update, scansioni Windows Defender, ecc).

HDTune (dal sistema operativo) riporta valori velocistici inferiori rispetto al programma che uso da Linux e questi non sembrano essere causati dalla differenza GiB/GB.

https://i.imgur.com/te5ZXcO.png

Notare che per l'asse X HDTune usa i GB (1 GB = 1000^3 byte), mentre i valori dall'altro grafico sono in GiB (1 GiB = 1024^3 byte).


EDIT: praticamente al momento la situazione è che come SSD secondario con bassissima o nulla attività, il Samsung 840 (al ~30% di usura) che è stato osservato in precedenza mostrare cali prestazionali notevoli (https://www.hwupgrade.it/forum/showpost.php?p=45735188&postcount=15486) (in lettura sequenziale), sembra rallentare ad un ritmo significativamente inferiore rispetto ad un appena acquistato Crucial MX500 500 GB usato attivamente.

Mi chiedo se il problema sia altrove od aggravato da qualcosa in specifico. Magari il trim come accadeva anni fa per certi SSD Sandforce?

Grezzo
12-09-2018, 16:38
potrebbe essere semplicemente un problema delle tlc a 64l?

s12a
12-09-2018, 16:58
potrebbe essere semplicemente un problema delle tlc a 64l?

Potrebbe essere o il processo produttivo delle memorie o una caratteristica del controller e di come si occupa di gestire il bit error rate, o entrambi. In teoria le memorie NAND 3D avrebbero dovuto permettere di usare un processo produttivo meno miniaturizzato che avrebbe diminuito tali problemi, ma non sembra che la situazione sia cambiata particolarmente dagli ultimi SSD con memorie TLC planari.

Non è chiaro comunque quale processo produttivo sia stato usato per le memorie di questi SSD.

RobbyBtheOriginal
12-09-2018, 19:19
Ma scusate io che non sono così tecnico e vissuto sul tema, conviene fare upgrade da bx200 a mx500 o 850evo insomma questa fascia visto ciò che state monitorando?? Ho anche attacchi m2 sia sata che nvme, ma non faccio usi particolari dal browsing, giochi, e leggero montaggio video/ritocco foto, buono invece il multitasking (ma non penso sia molto influente sul disco fisso), torrent e p2p sporadici (ho sempre avuto tutto su ssd bx200 prima su vecchio dual core w7, ora ho pc nuovo w10 i7 ecc ecc).. visti i prezzi di adesso un pensierino ce lo farei se non ora al black friday. grazie :)

Lenovo TB-8703F by Tapaparla®©

Grezzo
12-09-2018, 19:27
vanno tutti uguali i dischi su sata non ha senso cambiarlo

s12a
12-09-2018, 19:50
Ma scusate io che non sono così tecnico e vissuto sul tema, conviene fare upgrade da bx200 a mx500 o 850evo insomma questa fascia visto ciò che state monitorando?? Ho anche attacchi m2 sia sata che nvme, ma non faccio usi particolari dal browsing, giochi, e leggero montaggio video/ritocco foto, buono invece il multitasking (ma non penso sia molto influente sul disco fisso), torrent e p2p sporadici (ho sempre avuto tutto su ssd bx200 prima su vecchio dual core w7, ora ho pc nuovo w10 i7 ecc ecc).. visti i prezzi di adesso un pensierino ce lo farei se non ora al black friday. grazie :)

A meno di avere esigenze specifiche in durata o scrittura sostenuta non ha senso cambiarlo per le prestazioni, a mio parere. Se vuoi cambiare semplicemente "per scrupolo" sarebbe meglio orientarsi verso modelli prosumer/enterprise magari con memorie MLC piuttosto che uno degli ultimi modelli economici usciti. La qualità però si paga...

Io al momento sto monitorando e documentando principalmente due cose:


Le stranezze riportate dal firmware del Crucial MX500 che ho su un altro PC
Come cala nel tempo la velocità in lettura sequenziale con i dati statici sul Crucial MX500 - qualcosa di inaspettato perché pensavo fosse solo un problema dei vecchi Samsung 840 EVO TLC


Quanto al primo punto a proposito, dopo test più approfonditi ritorno sui miei passi e ritengo nuovamente che su questo SSD "Power On hours" dai parametri SMART indichi il tempo di attività effettiva del controller, esclusi i periodi di sleep. Faccio notare che l'SSD è installato in un PC desktop e non è stato mai ancora spento.

Nel periodo in blu ho fatto eseguire al possessore dell'SSD in questione una serie di Error Scan di HDTune a ritmo continuo (che dovrebbero mantenere occupato l'SSD in maniera relativamente intensa). Sembra che "Power on hours" sia aumentato più rapidamente proprio in quel periodo lì. Poi, ad occhio, sembra esserci una qualche correlazione con il dato delle scritture in eccedenza effettuate sulle NAND (rispetto a quelle Host) od in generale l'attività dell'SSD.

https://i.imgur.com/eD1DynO.png

s12a
14-09-2018, 10:51
Rilevando i dati SMART ogni mezz'ora sul solito Crucial MX500 500GB ho trovato curioso osservare che la write amplification a brevissimo termine può anche superare 19x :eek:

È come se ogni tanto l'SSD di sua iniziativa faccia partire qualche processo in background di riorganizzazione interna che comporta scritture sulle memorie NAND, perché ai periodi di elevata write amplification non sembrano essere immediatamente associate particolari condizioni di utilizzo lato host.

In ogni caso, 50% delle osservazioni ha una write amplification di 1.15x od inferiore.

https://i.imgur.com/8TsGONv.png

makka
14-09-2018, 17:26
I miei 3 crucial testati con hdtune non presentano questo comportamento con il grafico molto frastagliato.
l'MX500 e' nuovo ha circa 1 mese, l'MX100 invece e' il piu' vecchio di tutti e tre ed e' montato da circa 2 mesi su un netbook che fa da muletto (muletto nel senso di emule) e' su sata2 quindi la velocita' e' piu' bassa ma molto costante,
il bx300 invece era prima sul pc principale ma ha circa 6 mesi e ora testato su un notebook sata3 ha un comportamento molto costante e sui valori di targa (500Mb/s), anzi la media di 10MB/s piu' alta dell'MX500 nuovo !

s12a
14-09-2018, 19:42
I miei 3 crucial testati con hdtune non presentano questo comportamento con il grafico molto frastagliato.
l'MX500 e' nuovo ha circa 1 mese, l'MX100 invece e' il piu' vecchio di tutti e tre ed e' montato da circa 2 mesi su un netbook che fa da muletto (muletto nel senso di emule) e' su sata2 quindi la velocita' e' piu' bassa ma molto costante,
il bx300 invece era prima sul pc principale ma ha circa 6 mesi e ora testato su un notebook sata3 ha un comportamento molto costante e sui valori di targa (500Mb/s), anzi la media di 10MB/s piu' alta dell'MX500 nuovo !

Non ho capito se l'MX500 sia in SATA-II oppure SATA-III.

In ogni caso ho fatto effettuare un altro test con HDTune:

https://i.imgur.com/Xv50qod.png

Sembra ci sia stato un lieve peggioramento rispetto a qualche giorno fa (2018-09-10):

https://i.imgur.com/nsospO3.png

makka
15-09-2018, 10:51
Il mio crucial MX500 e' su sata3 sul pc in firma.
Ecco il mio hdtune:

https://image.ibb.co/gKYksK/Crucial_MX500_Hd_Tune.png (https://imgbb.com/)

mtofa
15-09-2018, 16:05
Do il mio contributo, Crucial BX300 in uso da circa 10 mesi sul portatile:

https://preview.ibb.co/drcgzz/HDTune_Crucial_BX300250.jpg (https://ibb.co/bRj5Re)

s12a
15-09-2018, 16:10
Ricordo che il benchmark di HDTune va fatto con blocchi a 8MB dalle impostazioni del programma.

makka
15-09-2018, 18:15
Ricordo che il benchmark di HDTune va fatto con blocchi a 8MB dalle impostazioni del programma.

Io ho messo su "Accurato" e impostato a 8MB, vedo che il valore del burst rate nel mio caso e' molto piu' basso del tuo e anche di mtofa (di poco) ...
che vuol dire ?

s12a
15-09-2018, 18:29
Non credo che "burst rate" da HDTune abbia alcuna rilevanza in questi test con gli ultimi SSD e si può probabilmente ignorare. In teoria dovrebbe essere la velocità di trasferimento dal sistema operativo alla cache del dispositivo di memorizzazione e dovrebbe essere più elevata della velocità massima rilevata durante il test, cosa che non succede mai stranamente.


Burst Rate
The burst rate is the highest speed (in megabytes per second) at which data can be transferred from the drive interface (IDE or SCSI for example) to the operating system.
http://www.hdtune.com/hdtune.html

Paky
15-09-2018, 20:36
ti devo fare i complimenti s12a , è sempre un piacere leggere le tue analisi :)

a proposito di comportamenti "strani" dell'MX500
io ho rilevato questo riguardo il trim :confused: -> click (https://www.hwupgrade.it/forum/showpost.php?p=45594705&postcount=14914)

giovanni69
15-09-2018, 21:15
A meno di avere esigenze specifiche in durata o scrittura sostenuta non ha senso cambiarlo per le prestazioni, a mio parere. Se vuoi cambiare semplicemente "per scrupolo" sarebbe meglio orientarsi verso modelli prosumer/enterprise magari con memorie MLC piuttosto che uno degli ultimi modelli economici usciti. La qualità però si paga...

E si hanno anche strane avventure e misteri... che continuano nel tempo: :O

https://s22.postimg.cc/a51dht4oh/2018-09-15_22-12-23.png (https://postimages.org/)

https://s22.postimg.cc/ya22zdz81/2018-09-15_22-18-50.png (https://postimages.org/)

mtofa
15-09-2018, 22:50
Nuovo test con blocchi a 8MB e "Accurate":

https://preview.ibb.co/kxS76e/Cattura.jpg (https://ibb.co/mV3fRe)

s12a
16-09-2018, 01:26
a proposito di comportamenti "strani" dell'MX500
io ho rilevato questo riguardo il trim :confused: -> click (https://www.hwupgrade.it/forum/showpost.php?p=45594705&postcount=14914)

Non posso controllare al momento sul MX500 che ho a disposizione per prove e test, ma il trim può essere implementato in tre modi diversi:

https://en.wikipedia.org/wiki/Trim_(computing)#ATA


Non-deterministic TRIM: Each read command to the Logical block address (LBA) after a TRIM may return different data.
Deterministic TRIM (DRAT): All read commands to the LBA after a TRIM shall return the same data, or become determinate.
Deterministic Read Zero after TRIM (RZAT): All read commands to the LBA after a TRIM shall return zero.

Potrebbe essere che l'MX500 si comporti nel primo modo, cosa che dovrebbe essere migliore dal punto di vista della sicurezza. Un problema del trim standard/RZAT mi sembra sia che in caso di dati crittografati rende evidente quali blocchi di memoria contengono dati o meno. Se possibile, sarebbe meglio non farlo capire in tali situazioni.

E si hanno anche strane avventure e misteri... che continuano nel tempo: :O

https://s22.postimg.cc/a51dht4oh/2018-09-15_22-12-23.png
https://s22.postimg.cc/ya22zdz81/2018-09-15_22-18-50.png
Ci vorrebbe una spiegazione ufficiale su cosa rappresenti esattamente tale parametro, ma se Samsung non ha intenzione di fornirle il dubbio rimarrà.

makka
16-09-2018, 10:41
@s12a:
grazie per la info sul write burst, allora ignoriamo il dato e via.
@Paky:
ho fatto il test con trimcheck sul mio MX500 e da lo stesso identico risultato che da a te.

giovanni69
16-09-2018, 15:59
Ci vorrebbe una spiegazione ufficiale su cosa rappresenti esattamente tale parametro, ma se Samsung non ha intenzione di fornirle il dubbio rimarrà.

Per questo è un'avventura! :p

Paky
16-09-2018, 16:03
@Paky:
ho fatto il test con trimcheck sul mio MX500 e da lo stesso identico risultato che da a te.

grazie

Non posso controllare al momento sul MX500 che ho a disposizione per prove e test, ma il trim può essere implementato in tre modi diversi:

https://en.wikipedia.org/wiki/Trim_(computing)#ATA

Potrebbe essere che l'MX500 si comporti nel primo modo, cosa che dovrebbe essere migliore dal punto di vista della sicurezza.

ah ecco
allora sarà proprio quello il motivo

dubbio dipanato , grazie :)

Scruffy
17-09-2018, 13:39
ciao a tutti, vorrei acquistare un ssd m2 da mettere al notebook, ed avevo visto il crucial mx500 da 1tb con chip micron. qualcuno sa come va e se è consigliato come acquisto?

è affidabile o mi conviene prendere un 850 evo samsung da 1tb ?

scarto nvme per questioni di prezzo troppo elevato. a me un ssd classico m2 basta e avanza per ora.

unnilennium
17-09-2018, 18:06
ciao a tutti, vorrei acquistare un ssd m2 da mettere al notebook, ed avevo visto il crucial mx500 da 1tb con chip micron. qualcuno sa come va e se è consigliato come acquisto?

è affidabile o mi conviene prendere un 850 evo samsung da 1tb ?

scarto nvme per questioni di prezzo troppo elevato. a me un ssd classico m2 basta e avanza per ora.Il cruciale e ottimo, Samsung e lievemente meglio, ma costa un po' di più, ma paghi la marca, non le prestazioni che sono simili.

Inviato dal mio MI 5 utilizzando Tapatalk

Life bringer
17-09-2018, 18:47
Buonasera, attualmente ho un Crucial MX100 da 512gb, con scritture per un totale di 14tb su 72 dichiarate di endurance.
Se acquistassi un 970 EVO m2 sempre da 500gb noterei dei miglioramenti nell'uso quotidiano? Reattività, gaming, uso ufficio?

Vopidu
17-09-2018, 19:08
grazie agli SSD ho rivitalizzato computer "morti" :)

rug22
17-09-2018, 21:01
Ma il sandisk plus da 120gb quanti tb può scrivere al max?Non riesco a capirlo

s12a
18-09-2018, 08:11
Ma il sandisk plus da 120gb quanti tb può scrivere al max?Non riesco a capirlo

SanDisk non dichiara ufficialmente il dato di endurance per questa serie di SSD, probabilmente perché sarebbe piuttosto basso per gli standard odierni, oppure perché potrebbe dipendere dalle memorie installate (che a quanto pare variano da esemplare ad esemplare) e non ci si aspettano usi intensivi per questi SSD. Immagino che potrebbe essere circa 30-40 TBW in condizioni standard per il modello da 120GB.

Se alleghi qui i dati SMART dell'SSD si può provare a fare una proiezione in base alle tue condizioni d'uso. In breve si tratta semplicemente di vedere in via teorica dopo quanti Terabyte scritti lato Host si arriverebbe al 100% di usura.

È necessario che tu abbia usato l'SSD per un po' di tempo.

CrazyDog
18-09-2018, 13:33
arrivato il BX500, in anticipo :D

https://i.imgur.com/zHDcYZB.png
https://i.imgur.com/M320Fho.png
https://i.imgur.com/wqEhVWl.png
https://i.imgur.com/7RdToU9.png

amd-novello
18-09-2018, 14:14
Buonasera, attualmente ho un Crucial MX100 da 512gb, con scritture per un totale di 14tb su 72 dichiarate di endurance.
Se acquistassi un 970 EVO m2 sempre da 500gb noterei dei miglioramenti nell'uso quotidiano? Reattività, gaming, uso ufficio?

dubito

Grezzo
18-09-2018, 15:37
a me ancora non è arrivato il bx....

cmq si conferma le prestazioni del bx500 nel taglio da mezzo tb. sequenziale buono e 4k la metà dell' mx500. riesci a fare test con pacchetto da 16 o meglio 32gb ?

CrazyDog
18-09-2018, 16:01
a me ancora non è arrivato il bx....

cmq si conferma le prestazioni del bx500 nel taglio da mezzo tb. sequenziale buono e 4k la metà dell' mx500. riesci a fare test con pacchetto da 16 o meglio 32gb ?

a me è arrivato con il postino, ora provo il test 32gb

Grezzo
18-09-2018, 16:13
il mio postino è un lavativo purtroppo fin quando non andrà in pensione dobbiamo accontenarci del suo ritmo statale anni 80 :D

CrazyDog
18-09-2018, 16:26
il mio postino è un lavativo purtroppo fin quando non andrà in pensione dobbiamo accontenarci del suo ritmo statale anni 80 :D

:D
https://i.imgur.com/aikHm1h.png
temperature da hwinfo 70-72° il case di plastica non aiuta

posso confermare che non ha la dram cache
https://imgur.com/wLxla62
https://imgur.com/G1AVl4F

Paky
18-09-2018, 22:46
grande , appena arrivato e già fatto a pezzi :D

ma che cavolo di nand sono?

s12a
18-09-2018, 23:13
:D
https://i.imgur.com/aikHm1h.png
temperature da hwinfo 70-72° il case di plastica non aiuta

Dopo tutti questi test puoi postare un' altra schermata di CrystalDiskInfo, impostando la visualizzazione degli attributi SMART raw in base 10 invece che esadecimale?

pitx
19-09-2018, 07:50
grande , appena arrivato e già fatto a pezzi :D

ma che cavolo di nand sono?

eheh... a scoprirlo :D :D :D

s12a
19-09-2018, 08:18
Il font dei vari codici ed il posizionamento generale sembrano leggermente diversi e manca il logo Micron. Mi sembra difficile che non siano memorie IMFT di qualche tipo, tuttavia:

https://i.imgur.com/8mUbv3i.png

https://i.imgur.com/vkWYRuUl.png

Vedendo foto di vari modelli in giro, su tutti gli MX500 smontati le memorie sembrano avere un codice con il seguente schema:

7xA2y (dove x=M-Y, y=2/D)
NW9xx (dove xx=12/25/26)


EDIT: ho provato a dare un'occhiata rapida alle foto dei vari modelli prodotti dall'M500 in poi e le serigrafie delle memorie del BX500 sopra differiscono in maniera netta da quelle fin'ora equipaggiate.

È possibile come per i modelli base SanDisk (a quanto sembra) che le memorie del BX500 differiscano a seconda del periodo e della fortuna (per limitare i costi) e che dunque le prestazioni in condizioni stabilizzate possano variare da esemplare ad esemplare.

CrazyDog
19-09-2018, 09:41
Dopo tutti questi test puoi postare un' altra schermata di CrystalDiskInfo, impostando la visualizzazione degli attributi SMART raw in base 10 invece che esadecimale?

https://i.imgur.com/3oeyo0u.png

s12a
19-09-2018, 09:47
https://i.imgur.com/3oeyo0u.png

Interessante che Media Cancellazione Blocco (=cicli di scrittura) sia già a 6, mentre la write amplification calcolata come [1+(Pagine FTL/Pagine Host)] sia poco più di 1.2x.

Questo può voler dire che il secondo dato non tiene conto delle scritture nella cache SLC (o qualcosa di simile), mentre il numero di cicli di scrittura effettuati sì.

Grezzo
19-09-2018, 16:57
montato anche io il bx500 prestazioni analoghe alle tue, in ogni caso nettamente superiore al quel bidone del sandisk di cui ho fatto il reso. proverò a stressarlo per vedere se il case in plastica peggiora le prestazioni

s12a
19-09-2018, 17:27
Sarei curioso di capire se la cache SLC sul BX500 è dinamica, ossia se dipende dalla quantità di spazio libero disponibile. Si potrebbero fare test ad esempio al 50% e 75% di spazio riempito.

EDIT: qualche review sembra che sia uscita. Da questa sembra che la cache sia di circa 20GB sulla versione da 240GB (non è chiaro a quale livello di riempimento, ma mi sembra che il test di HDTune in scrittura sia distruttivo e cancelli tutto).

https://i.imgur.com/AMfqkLD.jpg

https://andiriney.ru/crucial-bx500-obzor/

EDIT2: qui le memorie sembrano simili a quelle dell'MX500:

https://i.imgur.com/AM1T0Aq.png

Grezzo
19-09-2018, 18:02
è da 20gb, oltre quelli scendon le prestazioni

s12a
19-09-2018, 18:44
Intanto sul MX500 acquistato un paio di settimane fa il declino continua lentamente:

2018-09-19 (oggi):

https://i.imgur.com/BAtvKrN.png


2018-09-14:

https://i.imgur.com/Xv50qod.png


è da 20gb, oltre quelli scendon le prestazioni
Ma immagino che sul 120GB saranno di meno (10GB) :confused:

Dato che sugli ultimi Intel 660p QLC una più nuova versione del controller Silicon Motion ha una cache SLC dinamica che varia con lo spazio libero (trimmato), mi chiedevo se lo stesso valesse anche per questi ultimi BX500.

Grezzo
19-09-2018, 18:50
a logica dovrebbe essere di meno ma a livello empirico ho visto un calo sui 20gb, non ho modo di fare il test hdtune perchè il disco l ho avuto sottomano forse 5 minuti, bisogna che crazy si offra come cavia, potrei anche aver avuto un abbaglio. se c è modo senza dover smontare la partizione posso anche farlo, intendo copiare un file da 60gb per intenderci

questo è il sandisk 120, mi pareva pure peggio

https://i.imgur.com/KfLIik2.jpg

CrazyDog
19-09-2018, 18:55
che cosa dovrei provare precisamente?

s12a
19-09-2018, 19:11
che cosa dovrei provare precisamente?

Se non hai installato ancora nulla sull'SSD, un benchmark in scrittura con HDTune Pro e sempre blocchi da 8M/Accurate dalle impostazioni. Per evitare di effettuare scritture inutili puoi terminare il test dopo che è avvenuto il grosso del calo e la velocità si è stabilizzata su valori velocistici a due cifre (a spanne sui 25-30 GB o giù di lì).

Dopodiché, se puoi effettuare un altro screenshot di CrystalDiskInfo, perché sono anche curioso di sapere quanto rapidamente l'usura prosegue su questi SSD con questi test che stai facendo e che ti stiamo facendo fare.

Altri test sarebbero necessari per capire se la cache SLC è dinamica, ma questo qui è semplice da effettuare e non ho idea su due piedi di quali benchmark per Windows possano tracciare un grafico della la velocità di scrittura nel tempo se non una copia di un file molto grande da un altro SSD come Grezzo suggerisce, connesso al PC in SATA600.

CrazyDog
19-09-2018, 19:16
Se non hai installato ancora nulla sull'SSD, un benchmark in scrittura con HDTune Pro e sempre blocchi da 8M/Accurate dalle impostazioni. Per evitare di effettuare scritture inutili puoi terminare il test dopo che è avvenuto il grosso del calo e la velocità si è stabilizzata su valori velocistici a due cifre (a spanne sui 25-30 GB o giù di lì).

Dopodiché, se puoi effettuare un altro screenshot di CrystalDiskInfo, perché sono anche curioso di sapere quanto rapidamente l'usura prosegue su questi SSD con questi test che stai facendo e che ti stiamo facendo fare.

Altri test sarebbero necessari per capire se la cache SLC è dinamica, ma questo qui è semplice da effettuare e non ho idea su due piedi di quali benchmark per Windows possano tracciare un grafico della la velocità di scrittura nel tempo se non una copia di un file molto grande da un altro SSD come Grezzo suggerisce, connesso al PC in SATA600.

ok non so però se riesco a postarli stasera

Grezzo
19-09-2018, 19:33
il disco lo puoi smontare anche dalle impostazioni nell utility che ti crea le partizioni sempre che non ti interessi il contenuto :D

CrazyDog
19-09-2018, 20:41
Se non hai installato ancora nulla sull'SSD, un benchmark in scrittura con HDTune Pro e sempre blocchi da 8M/Accurate dalle impostazioni. Per evitare di effettuare scritture inutili puoi terminare il test dopo che è avvenuto il grosso del calo e la velocità si è stabilizzata su valori velocistici a due cifre (a spanne sui 25-30 GB o giù di lì).

Dopodiché, se puoi effettuare un altro screenshot di CrystalDiskInfo, perché sono anche curioso di sapere quanto rapidamente l'usura prosegue su questi SSD con questi test che stai facendo e che ti stiamo facendo fare.

Altri test sarebbero necessari per capire se la cache SLC è dinamica, ma questo qui è semplice da effettuare e non ho idea su due piedi di quali benchmark per Windows possano tracciare un grafico della la velocità di scrittura nel tempo se non una copia di un file molto grande da un altro SSD come Grezzo suggerisce, connesso al PC in SATA600.

scrittura con 8MB/Accurate
https://i.imgur.com/0elszbi.png

fatto anche il test random e il benchmark lettura
https://i.imgur.com/knJil54.png
https://i.imgur.com/xkjvsfQ.png

diskinfo
https://i.imgur.com/6FUK946.png

s12a
20-09-2018, 01:32
scrittura con 8MB/Accurate[...]
Grazie per i test. Sembra che la cache sia attiva fino a circa il 30% di capienza, poi la velocità cali a valori di picco molto bassi. Questo comportamento è molto diverso dall'altro da 240GB testato dal sito russo che ho linkato più su e sembra quasi indicativo di una qualche sorta di cache dinamica.

Ma le memorie sembrano anche diverse, non sono le solite Micron... il mistero si infittisce.

Grezzo
20-09-2018, 13:31
Grazie per i test. Sembra che la cache sia attiva fino a circa il 30% di capienza, poi la velocità cali a valori di picco molto bassi. Questo comportamento è molto diverso dall'altro da 240GB testato dal sito russo che ho linkato più su e sembra quasi indicativo di una qualche sorta di cache dinamica.

Ma le memorie sembrano anche diverse, non sono le solite Micron... il mistero si infittisce.

40gb di cache, il mio non ne ha sicuramente piu di 30 per quello che ho provato (dopo os installato), non ho ben capito come fa ad essere dinamica la cache, ma non sono celle slc? come si giustifica il calo così grosso fuori dalla cache che invece non si ha sui mx500 anche con 200gb?

s12a
20-09-2018, 13:55
40gb di cache, il mio non ne ha sicuramente piu di 30 per quello che ho provato (dopo os installato), non ho ben capito come fa ad essere dinamica la cache, ma non sono celle slc? come si giustifica il calo così grosso fuori dalla cache che invece non si ha sui mx500 anche con 200gb?

Non conosco il funzionamento esatto nel dettaglio a livello fisico/elettronico, ma le celle di memoria dovrebbero essere le stesse; non ci sono package di memoria NAND SLC dedicata.

Per quanto ricordi, la scrittura sulle celle MLC (2, 3, 4 bit per cella, ecc) comporta più fasi consecutive: una per ogni livello o bit. La lentezza in scrittura principalmente deriva da questo. In modalità SLC viene usato un solo livello, e questo comporta tempi di scrittura più brevi e dunque più veloci. Dato che il comportamento delle celle SLC viene emulato e non è "nativo", questa modalità viene spesso chiamata pSLC o pseudo-SLC.

Una cella TLC (o anche definita MLC 3-bit) ha tre volte la capienza di una cella SLC. Se noi andiamo ad usare tutte le celle TLC dell'SSD in modalità pSLC, ottieniamo più o meno 1/3 della capienza che si avrebbe normalmente.

Il fatto che la cache sembra incidentalmente ammontare ad 1/3 della capienza, seguito da un crollo notevole della velocità nell'esempio di CrazyDog, può voler dire che ad SSD vuoto e trimmato tutta la capienza dell'SSD residua viene usata in modalità pSLC e che quindi invece di essere fissa dipenda dallo spazio libero. Quando la cache si esaurisce, ossia tutte le celle vuote dell'SSD sono state utilizzate, per continuare ad usare la capienza nominale (in TLC) occorre riscrivere i dati pre-esistenti in formato TLC. Dato che non ci sono celle TLC libere (o se ce ne sono, non sono sufficienti a compensare), questo dovrebbe comportare un overhead prestazionale notevole.

Questa è solo un'ipotesi, tuttavia.

In ogni caso, con questo tool online le memorie dell'SSD di CrazyDog non escono fuori; se sono Micron, sono state rimarchiate per qualche motivo:

https://www.micron.com/support/tools-and-utilities/fbga

Grezzo
20-09-2018, 14:44
così avrebbe un senso.

confermo l' elevata temperatura del disco su un notebook, non ultrabook, sotto stress raggiunge i 74 gradi, anche l' mx500 avevo notato che scaldava molto più dell mx100, ho raggiunto un max di 67 sotto stress estremo, evidentemente il case in plastica peggiora un poco la capacità di dissipare calore rispetto all' alluminio, aprendolo si potrebbe mettere dei pad termici ma tanto essendo un evento molto raro per l' uso di un 120gb non vale la pena.

@Liupen
20-09-2018, 16:23
ti devo fare i complimenti s12a , è sempre un piacere leggere le tue analisi :)

Quoto.


A proposito di Crucial...

Mi sembra che il valore del parametro 173 tenda ad essere più "incrementale" del parametro 177 che è rapportato agli LBA scritti.

177 B1 Livello d'uso (Wear Leveling Count o Wear Range Delta) è effettivamente il massimo o la media delle cancellazioni subite dai blocchi (dirette e indirette).
Il parametro che compare nei device Crucial è però il
173 AD Media Cancellazione Blocco (Average Block-Erase Count) questo valore, come definito da Crucial, è il conteggio della cancellazione media di tutti i superblocchi.

Un superblocco è definito per includere tutti i blocchi fisici con lo stesso numero di blocco di tutti piani.
Il superblocco supera la distinzione tra blocco logico (LBA) e blocco fisico (PPA) che l'ssd adotta per "simulare" la struttura degli HDD e del funzionamento degli attuali file system.
Superblocco considera tutto ciò che viene gestito dal FTL (lo strato software intermedio Flash Translation Layer) sul blocco stesso, compresi i metadati di funzionamento.
L'applicazione (da noi usata al momento), il file system e l'FTL mantengono ciascuna la propria tabella di mappatura, eseguono il livellamento dell'usura e la garbage collection e riserva una frazione di spazio per lo scopo di overprovisioning e supporto ECC.

s12a
20-09-2018, 19:03
177 B1 Livello d'uso (Wear Leveling Count o Wear Range Delta) è effettivamente il massimo o la media delle cancellazioni subite dai blocchi (dirette e indirette).
A proposito, i modelli con controller Marvell (i precedenti Crucial MX od il SanDisk Extreme II che ho in firma) riportano il valore di cancellazione minimo, medio e massimo. In passato ho notato che insistendo a scrivere su un certo numero di settori logici predefinito il valore di cancellazione massimo tende ad aumentare più rapidamente.

In questo momento non ho lo storico completo dell'SSD, ma ho quello da quando ho installato Linux sul SanDisk:

https://i.imgur.com/ASvh10N.png

I salti in scritture NAND corrispondono a diversi benchmark effettuati con un certo programma (fio / "Flexible I/O Tester") sull'SSD.

Già che ci sono allego anche la write amplification media delle precedenti 12 ore calcolata per ogni rilevazione degli attributi SMART (effettuate ogni 30 minuti) dell'SSD. I valori più vicini ad 1.0x corrispondono a benchmark oppure copie di file consistenti.

https://i.imgur.com/3jClZWR.png

rug22
20-09-2018, 19:22
SanDisk non dichiara ufficialmente il dato di endurance per questa serie di SSD, probabilmente perché sarebbe piuttosto basso per gli standard odierni, oppure perché potrebbe dipendere dalle memorie installate (che a quanto pare variano da esemplare ad esemplare) e non ci si aspettano usi intensivi per questi SSD. Immagino che potrebbe essere circa 30-40 TBW in condizioni standard per il modello da 120GB.

Se alleghi qui i dati SMART dell'SSD si può provare a fare una proiezione in base alle tue condizioni d'uso. In breve si tratta semplicemente di vedere in via teorica dopo quanti Terabyte scritti lato Host si arriverebbe al 100% di usura.

È necessario che tu abbia usato l'SSD per un po' di tempo.

Ecco qui, utilizzo...a dicembre 2018 fa due anni.

https://preview.ibb.co/gGpibe/crystalhard.jpg (https://ibb.co/bzSEhK)

s12a
20-09-2018, 20:03
Ecco qui, utilizzo...a dicembre 2018 fa due anni.

https://preview.ibb.co/gGpibe/crystalhard.jpg

Dallo screenshot, "Media cicli cancellazione" è 12 in esadecimale, che corrisponde a 18 cicli di scrittura in base 10. L'indicatore di usura normalizzato non è sceso neanche dell'1%.

Credo che tu abbia la serie vecchia dello stesso SSD, con memorie MLC date per 1500 cicli di scrittura. Con una rapida proporzione, di questo passo ti arriverà a tale valore a circa 227 Terabyte scritti.

Sugli SSD SanDisk "Percentuale totale S/C" va interpretato a gruppi di 2 blocchi di 2 cifre esadecimali a partire da destra. Questo valore non viene correttamente letto impostando CrystalDiskInfo con i valori in base 10 (lo amalgama come se fosse un valore unico), ma il software SanDisk lo riporta correttamente.

01 16 => xx.yy% => 1.22%

Questa dovrebbe essere l'usura precisa, corrispondente a circa 18/1500 cicli scritti. Su questo SSD sembra esserci più a sinistra di questo blocco 01 05, che indicherebbe 1.05% di per sé, ma non so a cosa si riferisca esattamente. Ancora più a sinistra c'è ripetuto 01 16.

Sul mio lo stesso attributo indica 000000000928 => 09 28 (hex) => 9.40%. Media cancellazioni è a 282/3000.

rug22
20-09-2018, 20:12
Quindi in sintesi è nuovo no?Di questo passo dura due secoli

s12a
20-09-2018, 20:17
Sì, praticamente nuovo. In due anni si è usurato a malapena dell'1%.

mtofa
20-09-2018, 21:57
Quindi in sintesi è nuovo no?Di questo passo dura due secoli

:asd:

Giuss
21-09-2018, 08:41
Secondo voi cercando un ssd poco costoso per un PC di qualche anno attualmente il BX500 può essere la scelta migliore?

Avevo visto anche il Kingston A400 ma ho letto pareri contrastanti per le prestazioni e anche qualche guasto di troppo.

Come prezzi siamo là, sui 45 euro per 240 Gb

Grezzo
22-09-2018, 11:56
sui 240gb forse ti conviene l' mx500 rispetto al bx500. sui 120gb non esiste niente meglio del bx500 (26€ sul sito crucial comprese le s.s.).


https://i.imgur.com/O5vMt1p.jpg

https://i.imgur.com/uxkD9fa.jpg


situazione migliorata nelle letture, disco ad 1 mese circa.

Giuss
22-09-2018, 16:28
sui 240gb forse ti conviene l' mx500 rispetto al bx500. sui 120gb non esiste niente meglio del bx500 (26€ sul sito crucial comprese le s.s.).


Ti ringrazio per la risposta, il BX 240gb sta sui 45 euro sul sito Crucial mentre l'MX altrove sta 57 euro, la differenza non è molta ma non so se ne vale la pena, soprattutto su un PC secondario

giovanni69
22-09-2018, 17:21
Quindi in sintesi è nuovo no?Di questo passo dura due secoli

Beh, quei 55°C non so se sono un fattore positivi per arrivarci... :O

Grezzo
22-09-2018, 17:54
Ti ringrazio per la risposta, il BX 240gb sta sui 45 euro sul sito Crucial mentre l'MX altrove sta 57 euro, la differenza non è molta ma non so se ne vale la pena, soprattutto su un PC secondario

pensavo costassero uguale, se dovessi prenderlo x me io prenderei il bx

Vodolaz
23-09-2018, 11:15
sui 500GB attualmente quale sarebbe l'opzione migliore, considerando che il nuovo SSD verrebbe destinato a fare da contenitore a 2 o 3 OS alternativi installati in macchine virtualbox con OS host linux installato su altro SSD Ccrucial CT525MX300SSD1? O devo considerare di utilizzare allo scopo il vecchio MX300 e sul nuovo MX500 reinstallare l'OS principale?

Blue_screen_of_death
24-09-2018, 11:07
Dovendo acquistare un SSD per un notebook (1TB), cosa consigliate?

- Samsung EVO 860
- Crucial MX500
- Altro

Sono ingegnere informatico e faccio ampio uso di macchine virtuali. Ho deciso di prendere un SSD principalmente per evitare i tempi di caricamento biblici delle VM e i lag continui degli IDE che uso per programmare.

Phoenix Fire
24-09-2018, 11:19
tra samsung e crucial prendi il più economico, su amazon ci sono i samsung days quindi ci potrebbe essere qualche buon prezzo

frafelix
24-09-2018, 13:14
Attenzione che se fai uso intensivo di vm è meglio puntare sulla serie pro samsung o equivalenti... Tempo fa c'era stato un utente che aveva preso un ssd "normale", quindi di fascia economica e con l'utilizzo di parecchie vm aveva finito i cicli di scrittura in qualche mese

Grezzo
24-09-2018, 13:48
se prendi un modello da 1tb a voglia scritture anche con una vm, considerando quanto costa l' mx500, fai prima a prendere quello e nel caso finissi le scritture a prendere un altro disco piu avanti che prendere un modello pro e spendere una fraccata di soldi, guarda se il momentus cache salva un po di scritture nel caso delle vm.

fonzie1111
27-09-2018, 12:55
Raga per errore invece di prendere la crucial mx500 ho preso la mx300 da 525 GB, che dite ci perdo tanto in performance??? La devo montare su un portatile un po' obsoleto (asus k52f).

Paky
27-09-2018, 13:22
eh non ti dico che performance perdi....

amd-novello
27-09-2018, 13:59
lol

Phoenix Fire
27-09-2018, 14:04
Raga per errore invece di prendere la crucial mx500 ho preso la mx300 da 525 GB, che dite ci perdo tanto in performance??? La devo montare su un portatile un po' obsoleto (asus k52f).

se l'hai pagato uguale, allora puoi pensare a rimandarlo indietro, altrimenti "lassa sta" che vanno uguali

fonzie1111
28-09-2018, 00:28
ora capisco la battuta ironica, il collo di bottiglia è il portatile, non la ssd, è un sata 300 la motherboard del portatile, ecco il test della ssd appena formattata:

https://i.postimg.cc/Cx71ry6F/2018-09-28.png (https://postimages.org/)

amd-novello
28-09-2018, 08:55
perfetto

più di così non fai

fonzie1111
28-09-2018, 10:21
perfetto

più di così non fai

Pero' il portatile ora va una scheggia, credo che solo sul sequenziale ci perdo o mi sbaglio??? Cmq rispetto alla samsung 750 evo che ho sul pc fisso mi va nel quarto test una 10ina di mega in meno.

giovanni69
28-09-2018, 13:28
Va come una scheggia perchè da un lato saturi il canale Sata II cosa che lontamente avveniva con l'HD ed i tempi di accesso sono notevolmente ridotti.

Paky
28-09-2018, 13:41
....ed il 4k non ha paragoni con un HD

giovanni69
28-09-2018, 13:45
giusto! :ave:

ronle
28-09-2018, 16:00
Ho un notebook con un processore di 3 generazione i5 3230M con scheda madre intel Hm 76,vorrei sostituire il disco meccanico con un ssd.Cosa mi consigliate? Va bene il crucial BX 500 da 120 gb? grazie

Nicodemo Timoteo Taddeo
28-09-2018, 16:42
Ho un notebook con un processore di 3 generazione i5 3230M con scheda madre intel Hm 76,vorrei sostituire il disco meccanico con un ssd.Cosa mi consigliate? Va bene il crucial BX 500 da 120 gb? grazie

Visto la differenza di prezzo, non andrei sotto il modello da 240 giga, oggi come oggi visti i prezzi io i modelli da meno di più o meno 250 giga non li prenderei minimamente in considerazione. Tieni presente che in linea teorica, più è grande l'SSD migliori sono le prestazioni e la durata.

ronle
28-09-2018, 18:27
Visto la differenza di prezzo, non andrei sotto il modello da 240 giga, oggi come oggi visti i prezzi io i modelli da meno di più o meno 250 giga non li prenderei minimamente in considerazione. Tieni presente che in linea teorica, più è grande l'SSD migliori sono le prestazioni e la durata.
Quindi mi consigli il crucial bx 500 da 240GB Oppure mx 500 da 250GB?

Nicodemo Timoteo Taddeo
28-09-2018, 18:41
Quindi mi consigli il crucial bx 500 da 240GB Oppure mx 500 da 250GB?

Avevi scritto di BX ho citato un BX :)

Se sei disposto a prendere il mx spendendo qualche altro soldino in più, peggio non sarà credo :)

Giuss
28-09-2018, 19:22
Quindi mi consigli il crucial bx 500 da 240GB Oppure mx 500 da 250GB?

Il modello MX è sicuramente migliore e anche più costoso, c'è da vedere se la differenza si nota nell'uso reale.

Io ho ordinato un BX, quando arriva vediamo.

amd-novello
28-09-2018, 20:41
Ho un notebook con un processore di 3 generazione i5 3230M con scheda madre intel Hm 76,vorrei sostituire il disco meccanico con un ssd.Cosa mi consigliate? Va bene il crucial BX 500 da 120 gb? grazie

sul mio dell col processore simile al tuo avevo preso il sandisk da 120 che costava di meno e va una scheggia. mai occupato più di metà spazio. fai tu in base a quanto occupi.

ronle
28-09-2018, 22:53
sul mio dell col processore simile al tuo avevo preso il sandisk da 120 che costava di meno e va una scheggia. mai occupato più di metà spazio. fai tu in base a quanto occupi.

E'il sandisk ssd plus 120gb quello che hai comprato?

amd-novello
29-09-2018, 11:02

s12a
29-09-2018, 13:47
Aggiornamento Samsung 840 250GB, declino velocistico misurato da Linux leggendo l'SSD a blocchi di 32MB in modalità raw, ignorando il filesystem.

https://i.imgur.com/R4omwcG.png

Grezzo
29-09-2018, 13:53
insomma non sta messo proprio bene neppure il samsung, anzi.

perchè hai ignorato il filesystem?

s12a
29-09-2018, 14:01
insomma non sta messo proprio bene neppure il samsung, anzi.
I Samsung 840/840 EVO sono gli SSD dove questi cali sono emersi inizialmente, ma nessuno sembra essersi mai preoccupato di verificare con i modelli anche di altre marche usciti in seguito.

perchè hai ignorato il filesystem?
È lo stesso test che fa HDTune. Legge tutti i blocchi logici (LBA (https://en.wikipedia.org/wiki/Logical_block_addressing)) dell'SSD sequenzialmente, senza preoccuparsi di quali file vi siano memorizzati e come.

fonzie1111
29-09-2018, 15:14
Eccovi dei test della crucial mx300 da 525 GB sul portatile, che ve ne pare???

https://i.postimg.cc/pdzVcs9v/29-settembre-2018_16-02.png (https://postimages.org/)
https://i.postimg.cc/W48ZfpqT/29-settembre-2018_16-05.png (https://postimages.org/)
https://i.postimg.cc/fWctRjvk/29-settembre-2018_16-12.png (https://postimages.org/)

Amorph
29-09-2018, 15:40
su taglio da 240gb voi preferireste un kingston sa400 oppure un crucial bx500?
secondo voi è affidabile utilizzare in un portatile un ssd m.2 con adattatore sata?

Nicodemo Timoteo Taddeo
01-10-2018, 14:59
Nuovo Samsung 860 evo appena arrivato e spacchettato:

https://image.ibb.co/e2Lz6z/Samsung2.jpg


https://image.ibb.co/nKJSRz/Samsung5.jpg

UtenteSospeso
01-10-2018, 16:04
Su che computer è montato ?

.

Nicodemo Timoteo Taddeo
01-10-2018, 18:38
Su che computer è montato ?

.

https://i.imgur.com/BnvfnmF.png

unnilennium
02-10-2018, 06:16
su taglio da 240gb voi preferireste un kingston sa400 oppure un crucial bx500?
secondo voi è affidabile utilizzare in un portatile un ssd m.2 con adattatore sata?Se non hai problemi di compatibilità, nessun problema. Esistono modelli di notebook che lo hanno di fabbrica quindi non vedo dove sia il problema.

Inviato dal mio MI PAD 2 utilizzando Tapatalk

Blue_screen_of_death
02-10-2018, 23:23
Mi è appena arrivato il crucial mx500. Dando un'occhiata alle ottimizzazioni ho visto che ha momentum cache e overprovisioning. Voi come li avete abilitati? Quanto spazio avete dedicato all'overprovosioning

bagnino89
03-10-2018, 06:18
Mi è appena arrivato il crucial mx500. Dando un'occhiata alle ottimizzazioni ho visto che ha momentum cache e overprovisioning. Voi come li avete abilitati? Quanto spazio avete dedicato all'overprovosioningIo ho il modello da 1 TB, ho attivato momentum cache e dato 50 GB (il 5%) di overprovisioning.

arge70
03-10-2018, 10:32
Ma il crucial bx500 ha solo interfaccia Sata ? Non c è m.2 ?

jyk
03-10-2018, 14:06
Ciao a tutti,
Causa malfunzionamento ho appena reso un
Kingston (SA1000M8/240G Unità a Stato Solido Interna SSD A1000, 240 GB, M.2 2280, PCIe NVMe).
Volevo avere un consiglio se riprenderne uno uguale o provare un Crucial MX500 (CT250MX500SSD4 SSD Interno, 250 GB, 3D NAND, SATA, M.2 (2280)). Il costo su Amazon è circa lo stesso.
L'utilizzo e' per montarlo su un lenovo V130 15ikb insiema all'hdd normale

Ne approfitto anche per avere una conferma : la vite da utilizzare per il fissaggio e' una m2 6mm?
Grazie

\_Davide_/
03-10-2018, 14:50
Io andrei di MX500 ad occhi chiusi!

fonzie1111
04-10-2018, 21:46
Raga ho preso per il fisso in firma il samsung 860 evo da 1 TB, che dite ho fatto un'ottima scelta??? :sofico:

Fable
04-10-2018, 22:27
Raga ho preso per il fisso in firma il samsung 860 evo da 1 TB, che dite ho fatto un'ottima scelta??? :sofico:

Meglio di cosi non si puo' , attualmente , secondo me ...e' la migliore scelta che si possa fare per un SSD.

unnilennium
05-10-2018, 06:09
Ciao a tutti,
Causa malfunzionamento ho appena reso un
Kingston (SA1000M8/240G Unità a Stato Solido Interna SSD A1000, 240 GB, M.2 2280, PCIe NVMe).
Volevo avere un consiglio se riprenderne uno uguale o provare un Crucial MX500 (CT250MX500SSD4 SSD Interno, 250 GB, 3D NAND, SATA, M.2 (2280)). Il costo su Amazon è circa lo stesso.
L'utilizzo e' per montarlo su un lenovo V130 15ikb insiema all'hdd normale

Ne approfitto anche per avere una conferma : la vite da utilizzare per il fissaggio e' una m2 6mm?
GrazieFai sapere come va il v130 con l'ssd montato, per curiosità. Hai aggiunto anche la RAM o hai lasciato 4gb?

Inviato dal mio MI PAD 2 utilizzando Tapatalk

ronle
06-10-2018, 11:48
La crucial consiglia di installare il software storace executive x velocizzare ancora di più il disco ssd... secondo voi ne vale la pena di installarlo?

makka
06-10-2018, 14:15
La crucial consiglia di installare il software storace executive x velocizzare ancora di più il disco ssd... secondo voi ne vale la pena di installarlo?

Velocizza il disco se abiliti la momentum cache, altrimenti puoi farne a meno.
Oltre a quello offre qualche info sull'SSD e permette il download e l'aggiornamento del firmware, ma per il resto ......
Io l'ho installato per vedere cos'era e poi l'ho rimosso.

ronle
06-10-2018, 16:43
In un disco ssd se si lascia abilitata la pianificazione di deframmentazione aumenta drasticamente le scritture totali ssd e ne ridurra' la durata... E'vero tutto questo?

Paky
06-10-2018, 16:49
ma assolutamente no
il sistema capisce che è un SSD e non deframmenta nulla
opera solo un TRIM programmato

fonzie1111
06-10-2018, 22:02
ma assolutamente no
il sistema capisce che è un SSD e non deframmenta nulla
opera solo un TRIM programmato

sbagli, sto facendo un corso di tecnico hardware e la' viene detto chiaramente che se si deframmenta l'ssd con la deframmentazione di win succede proprio cio' che ha detto l'utente poco sopra.

Paky
06-10-2018, 22:09
beh ovvio che se usi sistemi operativi da windows 7 in giù o lanci il comando defrag /D operi una deframmentazione classica

ma da windows 8 in su il problema non si pone

sbagli, sto facendo un corso di tecnico hardware e la' viene detto chiaramente che se si deframmenta l'ssd

io cambierei corso :D

fonzie1111
06-10-2018, 22:21
beh ovvio che se usi sistemi operativi da windows 7 in giù o lanci il comando defrag /D operi una deframmentazione classica

ma da windows 8 in su il problema non si pone



io cambierei corso :D

non temere, domandero' questa cosa, ma qualche volta che ho fatto il defrag da win 10 ho i miei dubbi che operi qualcosa solo sul trim. Prima cosa mi è stato spiegato che l'ssd non avendo testine meccaniche non ha bisogno di defrag vari e secondo operando il defrag si riduce solo la vita dell'ssd, e terzo tra le altre cose mi è stato consigliato di frequentare forum come questo o tomshw, cosa che già facevo.

P.S: Per la cronaca la scuola in questione è la scuola vega, una delle migliori.