|
|
|
![]() |
|
Strumenti |
![]() |
#22461 |
Senior Member
Iscritto dal: Jan 2005
Città: ichnusa
Messaggi: 17753
|
Mah penso che si potrebbe usare un PIN in gomma, come su alcuni box USB, facile da mettere e da togliere, anche se continuo a non capire che senso abbia rispetto alla vite, parliamo di una scheda madre, per arrivarci devi aprire il case, e usare un cacciavite non sarà molto diverso... Tralasciando il prezzo della Asus proart che per quella cifra deve anche avere un omino che ti smonta il disco e te lo passa da dentro il case, altro che sgancio
Inviato dal mio 23127PN0CG utilizzando Tapatalk |
![]() |
![]() |
![]() |
#22462 | |
Senior Member
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1117
|
Quote:
Sul perché alcuni usano 64MB anziché 32MB o anche meno non saprei dirti precisamente, sappiamo entrambi che di certo 32MB/64MB non bastano per l’intera mappa L2P perché l’aveva detto un po’ di tempo fa Liupen in questo thread, però penso che all’inizio di incertezza su questa tecnologia e su come funzionasse con gli SSD e quindi usassero 64MB di default per sicurezza. Poi magari mi sbaglio ma non so, non credo ci sia molta differenza tra 64MB e 100MB (attuale limite su Windows). |
|
![]() |
![]() |
![]() |
#22463 |
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 7520
|
@ black
certo, per i dram immaginavo che ci fosse un calcolo del genere alla base, è naturale che ci sia proporzionalità. La domanda era perché invece sugli hmb sembra non esserci rapporto con la dimensione della cache hmb, per cui 32 o 64 sembrano indifferenti (dicevi tu sopra). EDIT: mi hai preceduto mentre scrivevo. ![]() @ gio69 il q-latch sappiamo cos'è, quello che non sappiamo è se una cosa del genere viene venduta separatamente... se asus vendesse i ricambi... o chiederli a qualcuno che non li usa... o a sapere come si chiamano magari su aliexpress si trovano. |
![]() |
![]() |
![]() |
#22464 | |
Senior Member
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1117
|
Quote:
Gli autori oltretutto affermano che "quando lo spazio dell'HMB è di 512MB, quasi tutte le richieste di scrittura da tutti i carichi di lavoro possono essere "bufferizzate"", quindi un HMB con più di 512MB risulterebbe pressoché inutile. |
|
![]() |
![]() |
![]() |
#22465 | |
Senior Member
Iscritto dal: Oct 2009
Messaggi: 24322
|
Quote:
![]() però come detto da unnilennium non vedo perchè complicarsi la vita, se la proprio mobo ha la vite IMHO va benissimo quella ciao ciao
__________________
Pc - [LianLi Pc70]-[Corsair Ax860]-[Asrock z-170 extreme 6]-[Intel i7 6700k]-[16gb ddr4 Kingston HyperX Fury]-[Ssd 870evo 4Tb + 860evo 1Tb + 14Tb Toshiba MG + 16Tb Seagate Exos + 18Tb Seagate Exos]-[Lg 34gn850b]-[Razer D-Back Plasma Red]-[Windows 11 Pro 64bit 23H2 ![]() |
|
![]() |
![]() |
![]() |
#22466 | |
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 7520
|
Quote:
Non l'ho letto tutto, non dicono che dimensione di SSD hanno simulato? Ultima modifica di sbaffo : 21-01-2025 alle 08:39. |
|
![]() |
![]() |
![]() |
#22467 | |
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 7520
|
Quote:
![]() ![]() però c'è anche gente che vuole tornare indietro perchè col dissipatore non vanno d'accordo: https://www.reddit.com/r/ASUS/commen..._it_with_a_m2/ https://www.ebay.co.uk/itm/126701087887 concordo che non è quello il problema degli M2, il problema è smontare mezzo pc e infilare le mani tra schede grafiche/varie e dissipatori, anzi un cacciavitino con punta magnetica mi sa che è più comodo del Q-latch. Nikklaus sta provando le "prolunghe", come questa: https://www.amazon.it/Cablecc-Prolun...EDV&gQT=1&th=1 ma nelle recensioni qualcuno si lamenta di errori di scrittura dovuti ai cavi non schermati... ci vorrebbero dei cavi schermati, o tanta carta stagnola fai-da-te ![]() Ultima modifica di sbaffo : 21-01-2025 alle 09:18. |
|
![]() |
![]() |
![]() |
#22468 |
Senior Member
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1117
|
|
![]() |
![]() |
![]() |
#22469 | |
Senior Member
Iscritto dal: Jun 2005
Messaggi: 23049
|
@aled1974: grazie, farò quel tipo di ricerca
![]() Il problema però potrebbe essere una questione di compatibilità con altre mobo nei 'buchi', altezza del rivetto?.. Leggo anche di chi vuole invece liberarsene... Quote:
Tu dici? Se ti cade la piccola vite nel casino di cavi ecc...mah
__________________
Stampanti multifunzione [Thread ufficiale - consigli per gli acquisti] Ultima modifica di giovanni69 : 21-01-2025 alle 13:46. |
|
![]() |
![]() |
![]() |
#22470 | |||
Senior Member
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 430
|
Quote:
Quote:
Considera che è una simulazione, per quanto veritiera i risultati sono teorici. ------------------------- Stamattina ho letto un po di cose sul HMB e mi sono chiarito un po di dubbi; in realtà accorgendomi che HMB è quel che è ed era ignoranza mia CONFONDERE la differenza tra buffer e caching. Due nozioni prese dal documento ufficiale NVME: - l'uso e la quantità di RAM da utilizzare per l'HMB è stabilita dal controller dell'ssd ed in teoria può essere impostata di interi GB; condizione fondamentale è che si imposti un minimo e un massimo, pena errori (ops! fischiano le orecchie a WD). - le risorse di memoria RAM non sono persistenti attraverso un evento di reset del controller. Dopo un reset, il sistema operativo riassegna la memoria vuota precedentemente allocata al controller. L'elemento (algritmo) che in HMB si occupa della scrittura è il Fast Write Buffer (FWB). Domande e risposte. 1) HMB migliora le prestazioni di lettura casuale rispetto ad un ssd nvme che ha la DRAM? No, non è possibile; al massimo và alla stessa velocità. Perchè? La lettura dei riferimenti di mappatura da RAM o da DRAM hanno una latenza trascurabile in entrambe i casi. 2) Quantità maggiore di memoria su RAM di sistema opzionata da HMB rende l'ssd "più veloce"? La risposta a questa domanda è più articolata, perchè l'ssd legge/scrive e si comporta in maniera diversa se i dati cercati o scritti sono piccoli (casuali) o grandi (sequenziali) e se il carico di lavoro è alto (QD alta) o basso (QD bassa). Iniziando proprio dal mio errore: HMB è una memoria su cui giace una parte di mappatura (+ algoritmi di gestione). In particolare la parte di mappatura che "recentemente" per il controller dell'ssd, è stata modificata. Qundo si citano "metadati" si intendono esclusivamente gli algoritmi e nessun blocco, pezzo o frammento di file utente. Nota: sul punto 1); solo i dati recentemente modificati possono giovare della velocità di ricerca (letture) poichè gli indirizzi di mappatura perdurano in RAM di sistema. Vuol dire che nell'uso "normale", un ssd HMB leggerà la mappatura nella nand e un ssd con DRAM lo leggera da quest'ultima, MA con un accesso da parte del controller identico. Sui risultati ottenuti da Pradeep SR e Ranjith T, nel testo Exploring Performance Paradigm of HMB NVMe SSD's, promosso da Samsung, uno dei valori sfalsati a mio giudizio, è che il comando FIO di Iometer utilizzato in unico step, conserva in HMB la mappatura, dando quel gap in più, che nella realtà a pc appena acceso e con ssd nvme DRAM-less HMB inizializzato, non sono più presenti. Riprendendo il punto 2), non devo confondere, come ho fatto, la L2P (mappatura o porzione di essa) con il caching dei dati o "metadati" come si vede citato e ho scritto io stesso. Questo vuol dire che mi sono risposto alla mia domanda: perchè se ho 64 MB di HMB invece di 32 MB l'ssd non legge più velocemente o in generale non ho vantaggi prestazionali? Il fatto che ci sia più memoria HMB disponibile: in lettura - per il motivo detto sopra - non cambia le performanze. Non c'è una cache di dati da leggere di dimensione maggiore infatti; in realtà sono indirizzi... più indirizzi in memoria. A questo proposito entra in gioco un ulteriore elemento, a discapito della velocità; la richiesta di lettura viaggia attraverso più livelli (controller dell'SSD → sistema operativo dell'host → RAM host) e poi il dato deve essere inviato indietro al controller per l'elaborazione. Una diminuzione di latenza perchè la mappatura è su RAM (quando c'è) VS aumento latenza per "round trip". in scrittura si hanno le variazioni più interessanti per l'HMB. Sempre ricordando bene che la memoria HMB su RAM contiene "solo" (tra virgolette) degli indici di mappatura, le istruzioni di livellamento contingenti o di garbage pre-scrittura (e nessun bit utente), emerge un principio: più il buffer di memoria HMB è grande, più indirizzi ci stanno, più la scrittura random ad alta frequenza (maggiori QD) o i dati sequenziali scritti sono veloci. Gli indirizzi LBA infatti vengono scritti su RAM (più veloce) e più c'è buffer, più lo fanno a lungo. In particolare le scritture randomiche che sono accompagnati da parecchio overhead (che sono dati pure quelli e che ovviamente hanno i loro indirizzi di mappatura). Quote:
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI |
|||
![]() |
![]() |
![]() |
#22471 | ||||
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 7520
|
Quote:
@ liupen mi sono perso ma mi fido. ![]() Quote:
Discorso diverso i dissipatori degli ssd che possono interferire, ma dipende dal dissi. Quote:
Quote:
![]() ![]() ovviamente spero che tu stacchi corrente all'ali prima di metterci le mani, altrimenti con la vitina metallica in giro il problema non è trovarla ma le scintille e il successivo incendio stile L.A. ![]() |
||||
![]() |
![]() |
![]() |
#22472 |
Senior Member
Iscritto dal: Oct 2006
Città: Dintorni di Padova
Messaggi: 14034
|
__________________
MY PC: Thermaltake Chaser MKI - i5 12600K@default Noctua NH-U12S- Gigabyte Z690 UD - DDR5 Corsair 32GB @5800 + PNY GeForce RTX™ 4070 12GB VERTO™ Dual Fan DLSS 3 + SK Hynix Platinum P41 2TB + Samsung Evo 850-250GB+Crucial MX300-525GB - WD 3TB Green - Enermax Revolution D.F. 850WAOC Q27G2U @144 Hz ; Synology Ds918 + UPS Vertiv Edge 1500 |
![]() |
![]() |
![]() |
#22473 | |
Senior Member
Iscritto dal: Jan 2001
Città: *****Prov.AN***** My Name's MAX
Messaggi: 24120
|
Quote:
Ovviamente essendo vuoto e con un test del genere da il meglio di se. Nelle impostazioni di CrystalDiskmark, seleziona NVME Questo il mio Kingston Fury Renegade 1Tb di novembre 2022, unità di sistema con il 32% di spazio occupato ![]()
__________________
~MSI B550-A Pro~R7 5800X~RTX2060~32Gb LPX 3600C16~Kingston PCIe 4.0 SFYRS1000G~
*Album Photo4U* NPU*500px*Flickr*My FIBER* Il Mio Xiaomi 14 *MaxRecensioni ![]() |
|
![]() |
![]() |
![]() |
#22474 | ||
Senior Member
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1117
|
Sì, devo ammettere anche anch'io ho dovuto rileggerlo qualche volta il commento essendo abbastanza complesso e articolato.
Quote:
Quote:
|
||
![]() |
![]() |
![]() |
#22475 | |
Senior Member
Iscritto dal: Feb 2005
Città: MI
Messaggi: 7520
|
Vabbè, ho lanciato io il sasso sull'HMB ma ora me ne pento
![]() Riassumendo: diciamo che nel random 4k circa equivale ai dram, come sembra anche dalle prove: Quote:
Poi ci sarebbe il vantaggio delle minori scritture su celle quindi maggiore durata per i dram rispetto agli hmb, ma ormai è abbastanza marginale, e soprattutto è secondario rispetto al target: per l'utilizzo basico (hmb) non ci si pone neanche il problema, per l'utilizzo intenso si va già sui dram. giusto? |
|
![]() |
![]() |
![]() |
#22476 |
Senior Member
Iscritto dal: Jan 2002
Città: Viareggio
Messaggi: 10693
|
|
![]() |
![]() |
![]() |
#22477 |
Senior Member
Iscritto dal: Oct 2006
Città: Dintorni di Padova
Messaggi: 14034
|
azz come mai tutta sta differenza col mio?
__________________
MY PC: Thermaltake Chaser MKI - i5 12600K@default Noctua NH-U12S- Gigabyte Z690 UD - DDR5 Corsair 32GB @5800 + PNY GeForce RTX™ 4070 12GB VERTO™ Dual Fan DLSS 3 + SK Hynix Platinum P41 2TB + Samsung Evo 850-250GB+Crucial MX300-525GB - WD 3TB Green - Enermax Revolution D.F. 850WAOC Q27G2U @144 Hz ; Synology Ds918 + UPS Vertiv Edge 1500 |
![]() |
![]() |
![]() |
#22478 | |
Senior Member
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1117
|
Quote:
Per quanto riguarda la durata mi permetto di dire che è tutta teoria quella che un DRAM-based è migliore di un DRAM-less: prima di tutto bisogna esser sicuri che i dati che vengano scritti, letti e cancellati siano nella piccola cache, altrimenti se si fanno queste operazioni nelle NAND flash siamo punto a capo, secondo la DRAM diminuisce il WAF facendo Defer-Write, ossia più indirizzi piccoli vengono "fusi" in un unico grande. Qui però non c'è alcuna testimonianza accademica e neanche divulgativa da parte dei recensori quindi se il tuo SSD con HMB ha un WAF basso penso che non ci sia alcun vantaggio, anche perché il WAF non dipende solo dalla presenza della DRAM. Quanto fa il tuo? Se fa meno delle specifiche non è normale. Ultima modifica di Black (Wooden Law) : 23-01-2025 alle 11:00. |
|
![]() |
![]() |
![]() |
#22479 |
Senior Member
Iscritto dal: Jan 2001
Città: *****Prov.AN***** My Name's MAX
Messaggi: 24120
|
Come dicevo devi impostare nvme nell'app crystaldiskmark
Inviato dal mio Xiaomi 14 utilizzando Tapatalk
__________________
~MSI B550-A Pro~R7 5800X~RTX2060~32Gb LPX 3600C16~Kingston PCIe 4.0 SFYRS1000G~
*Album Photo4U* NPU*500px*Flickr*My FIBER* Il Mio Xiaomi 14 *MaxRecensioni ![]() |
![]() |
![]() |
![]() |
#22480 | ||
Senior Member
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 430
|
Quote:
![]() Volevo dire che riguardo il testo linkato da Black sull'ssd da 36GB, che si tratta proprio letteralmente di una simulazione. E' interessante. Tutto lo è se ti piace capire il funzionamento degli ssd. ![]() Si tratta di utilizzare un software chiamato FEMU, che emula un ssd dalle caratteristiche che imposti. https://github.com/MoatLab/FEMU Quote:
Ho ripetuto (mi sa anche troppo spesso il mio errore) entrato nell'ottica che la mappatura è una bufferizzazione, è facile poi capire i meccanismi. La differenza in lettura tra un ssd con DRAM ed uno senza ma con HMB, è che il controller nel primo caso recupera la mappatura (e non il dato... sottile ma determinante differenza), dalla DRAM (velocità del controller in MT/s = xxx), mentre HMB per lo più sulle NAND Flash (idem velocità del controller in MT/s = xxx) e poco o niente dalla RAM di sistema (per quella parte che è fortunatamente bufferizzata). Questo è quindi un pareggio prestazionale. Gli accessi casuali vengono spesso bufferizzati sia dal vero che ad esempio nei benchmark (vedi Crystadiskmark). Si possono anche vedere i leggeri vantaggi. Per richiamare un dato sequenziale, la lettura HMB o meno, ha un acceso uguale. Detto questo, per massimizzare la velocità di lettura anche in sequenziale, basterebbe avere un grande spazio di bufferizzazione, tipo 1GB per un ssd da 1TB come i DRAM based. Ma c'è un problema che si evidenzia, quello definito round trip latency. La CPU cerca la mappatura (attivato HMB la cerca su due dispositivi), la trova su RAM, ne fa richiesta al Controller dell'ssd che mette a disposizione su RAM il dato. La latenza complessiva non è molto diversa da un ssd DRAM based: la CPU cerca la mappatura, passa dal controller SSD, il controller la trova sulla DRAM, il controller la trasferisce alla RAM. Vediamo la riprova di questa affermazione. Prendiamo lo studio di Pradeep SR Ranjith T https://www.snia.org/sites/default/f...-NVMe-SSDs.pdf Nelle ultime pagine, come hai detto Black, si prova a vedere velocità di trasferimenti in rapporto all'aumento delle dimensioni del buffer HMB (da 16 a 64 MB). Guardiamo la situazione "normal" per semplicità. Workloads: Sequential Read (128K-T1-QD32) - il caso in evidenza in cui in buffer HMB non può esserci tutto Workloads: Random Read (4K-T1-QD32) - nel buffer c'è la mappatura che serve ma i risultati positivi rispecchiano quanto detto. Scrivono: Prestazioni migliori per l'allocazione Max HMB nella maggior parte dei casi. Workloads: Random Read (4K-T16-QD32) - qui si "martella" l'ssd usando più thread casuali (multitasking). In questo caso la mappatura richiesta è molta e le prestazioni scendono (rispetto al test casuale singolo) evidenziando il round trip. Invece per la scrittura, sono breve, perchè hai colto in pieno. Più buffer HMB mette a disposizione, più mappatura ci stà, più veloce risulta la traduzione della mappatura (blocco logico - blocco fisico). Questo elemento, che permette agli ssd con HMB di evitare che la traduzione avvenga sulle NAND Flash massimizzando la latenza, funziona meglio quando si tratta di trasferimenti sequenziali, i dati vengono letti o scritti in blocchi contigui, riducendo il numero di operazioni di mappatura. In tali scenari, l'HMB è sufficiente per ottimizzare il flusso dei dati. L'importante è non confondere le prestazioni dovute all'uso della mappatura bufferizzata (HMB) dalle prestazioni in scrittura dovute a controller, Nand, tipi di carichi tipi di file, ecc. Due cose diverse con effetti diversi. Infine la risposta alla domanda di sbaffo, che ho un po generalizzato: ma se un HMB funziona meglio con un buffer più grande (in scrittura) perchè non gli viene assegnato dal controller ad es. 1000 MB per un ssd da 1 TB come nei DRAM based? E quì la soluzione l'hai già detta qualche passaggio sopra, Black. I produttori fanno il minimo indispensabile (oltre a risultare 1 o 2 GB di RAM occupata... abbastanza ingombrante e impattante per un utente). Maxio non è l'unica a considerare 32MB anche WD sostiene una dimensione di 32MB, sufficiente per i carichi di lavoro attuali. Ciò non toglie che probabilmente si arriverà, con ssd di taglio maggiore, ad avere buffer anche da 100MB. Una nota: tutti gli studi pubblicati hanno in oggetto trasferimenti di dati piccoli che ovviamente stanno nel buffer di HMB Semplicemente quando dicono: con buffer HMB maggiore di 64MB non ottengo miglioramenti prestazionali, vuol dire che in quei 64MB sta tutta la L2P di cui c'è bisogno, corrispondendo ad ben 64 GB di trasferimenti. Questi studi sono fatti per mettere in evidenza cosa fà HMB quindi non considerano le prestazione oversize. Edit. oppure come nel caso dell'ssd da 36 GB, riducono la dimensione dell'ssd in modo che stia la mappatura nel buffer. Pubblica che vediamo.
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI Ultima modifica di @Liupen : 22-01-2025 alle 14:19. |
||
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 04:46.