Torna indietro   Hardware Upgrade Forum > Componenti Hardware > Periferiche di memorizzazione e controller > Periferiche di Memorizzazione - Discussioni generali

Intervista a Stop Killing Games: distruggere videogiochi è come bruciare la musica di Mozart
Intervista a Stop Killing Games: distruggere videogiochi è come bruciare la musica di Mozart
Mentre Ubisoft vorrebbe chiedere agli utenti, all'occorrenza, di distruggere perfino le copie fisiche dei propri giochi, il movimento Stop Killing Games si sta battendo per preservare quella che l'Unione Europea ha già riconosciuto come una forma d'arte. Abbiamo avuto modo di parlare con Daniel Ondruska, portavoce dell'Iniziativa Europa volta a preservare la conservazione dei videogiochi
Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione
Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione
Abbiamo provato il nuovo Galaxy S25 Edge, uno smartphone unico per il suo spessore di soli 5,8 mm e un peso super piuma. Parliamo di un device che ha pro e contro, ma sicuramente si differenzia dalla massa per la sua portabilità, ma non senza qualche compromesso. Ecco la nostra prova completa.
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto
Pensato per il professionista sempre in movimento, HP Elitebook Ultra G1i 14 abbina una piattaforma Intel Core Ultra 7 ad una costruzione robusta, riuscendo a mantenere un peso contenuto e una facile trasportabilità. Ottime prestazioni per gli ambiti di produttività personale con un'autonomia lontano dalla presa di corrente che permette di lavorare per tutta la giornata
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 26-06-2025, 14:20   #23321
frafelix
Senior Member
 
L'Avatar di frafelix
 
Iscritto dal: Mar 2008
Messaggi: 3063
Hai clonato il sistema? Perché l'unico modo che hai per sapere se dipende dall'ssd (a parte verificare se i parametri smart dicono qualcosa di utile) è staccare tutte le periferiche esterne, resettare il bios e installare win da 0. Se così hai problemi con il nuovo e non con il vecchio allora potrebbe dipendere dall'ssd
__________________
MB Asus Rog Maximus Z690 Apex - CPU Intel Core i9 12900k @ pcore 5.1ghz ecore 4.1ghz - RAM G.Skill Trident Z5 rgb 6600mhz 32gb - GPU RTX 5090 Phantom @ 3.1ghz - AUDIO Creative Sound BlasterX AE-5 - Creative GigaWorks S750 - SSD Samsung 950 Pro 512gb - HD Seagate Exsos X18 16tb - Seagate IronWolf 10tb - PSU Seasonic Prime TX-1600 Noctua Edition - CASE LianLi PC-O11 WGX - MONITOR Lg 27GP950
frafelix è offline   Rispondi citando il messaggio o parte di esso
Old 26-06-2025, 18:26   #23322
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
Alla fine ci avevo azzeccato sull'NQ780: controller DRAM-less ma usato con HMB, cioè senza DRAM. Il controller in questione è l'inaffidabile IG5236 e come NAND flash sono usate le vecchie (e scarse al giorno d'oggi) Intel N28A QLC da 144L. C'ha una cache SLC enorme (quasi 1TB sul taglio da 4TB) ma ovviamente è necessaria per coprire le pessime performance delle NAND flash che fanno 400 MB/s.

Direi che questo NQ780 può finire nella lista degli SSD da evitare.
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
Old 26-06-2025, 19:02   #23323
frafelix
Senior Member
 
L'Avatar di frafelix
 
Iscritto dal: Mar 2008
Messaggi: 3063
Ecco gli screen del mio 950 pro
__________________
MB Asus Rog Maximus Z690 Apex - CPU Intel Core i9 12900k @ pcore 5.1ghz ecore 4.1ghz - RAM G.Skill Trident Z5 rgb 6600mhz 32gb - GPU RTX 5090 Phantom @ 3.1ghz - AUDIO Creative Sound BlasterX AE-5 - Creative GigaWorks S750 - SSD Samsung 950 Pro 512gb - HD Seagate Exsos X18 16tb - Seagate IronWolf 10tb - PSU Seasonic Prime TX-1600 Noctua Edition - CASE LianLi PC-O11 WGX - MONITOR Lg 27GP950
frafelix è offline   Rispondi citando il messaggio o parte di esso
Old 26-06-2025, 19:24   #23324
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
Quote:
Originariamente inviato da frafelix Guarda i messaggi
Ecco gli screen del mio 950 pro
40TB scritti su un SSD del genere sono un niente, di 'sto passo fai prima ad andare tu in pensione che lui a morire. Le performance, oltretutto, sono come se l'SSD avesse il 0% di usura...
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
Old 26-06-2025, 21:03   #23325
frafelix
Senior Member
 
L'Avatar di frafelix
 
Iscritto dal: Mar 2008
Messaggi: 3063
Già!
__________________
MB Asus Rog Maximus Z690 Apex - CPU Intel Core i9 12900k @ pcore 5.1ghz ecore 4.1ghz - RAM G.Skill Trident Z5 rgb 6600mhz 32gb - GPU RTX 5090 Phantom @ 3.1ghz - AUDIO Creative Sound BlasterX AE-5 - Creative GigaWorks S750 - SSD Samsung 950 Pro 512gb - HD Seagate Exsos X18 16tb - Seagate IronWolf 10tb - PSU Seasonic Prime TX-1600 Noctua Edition - CASE LianLi PC-O11 WGX - MONITOR Lg 27GP950
frafelix è offline   Rispondi citando il messaggio o parte di esso
Old 26-06-2025, 21:33   #23326
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
@Liupen è appena uscita la recensione di TweakTown sul Micron 2600, un E29T (prima volta che vediamo questo controller) con le N69R (G9), cioè 276L QLC. Trovo questo SSD più interessante da un punto di vista accademico che delle performance.

Prima di tutto, parlando dell'SSD, usa controller e NAND flash superrecenti. L'E29T sembra essere un'evoluzione dell'eccellente E27T competitor del MAP1602: penso che abbia 3 core ARM Cortex-R5 di cui due di essi CoXProcessor, ha 4 canali da 3.600 MT/s ciascuno con 16 CE totali ed è costruito su un nodo da 12 nm di TSMC. Fin qui tutto uguale all'E27T, l'unica differenza che mi sembra di vedere è un miglioramento dal punto di vista dell'affidabilità grazie all'ECC LDPC e RAID di settima generazione di Phison quando l'E27T usa un motore di quinta generazione.

Parlando delle NAND flash, invece, come già detto sono delle N69R. Nel sample di TT da 2TB si ha soltanto un chip NAND flash visto che ci sono all'interno 8 die da 2Tb ciascuno, e infatti 256GB (ottenuto facendo 2.048 / 8) * 8 = 2.048GB. Abbiamo di fronte, quindi, il primo chip NAND flash con die da 2Tb.
La velocità dell'I/O di queste NAND flash è di 3.600 MT/s.

Vedendo la foto di TT si ottiene il codice FBGA, ossia NY376. Mettendolo nel decoder di Micron otteniamo che il S/N è MT29F16T08GQLBHL5-24QA:B. Da qui si possono scoprire tante belle informazioni tramite lo spreadsheet cinese:
- "16T" = 16.384Gb, 2TB di package;
- "Q" = 8 die, 4 nCE, 4 RnB e 4 I/O;
- "24" = 2.400 MT/s.

Strano che lo spreadsheet dica 2.400 MT/s se queste NAND flash sono listate per 3.600 MT/s, vero? In realtà ha senso come cosa: 7,2 / 0,85 = 8,47; 8,47 / 4 = 2.100 MT/s, ciò vuol dire che per raggiungere 7,2 GB/s con 4 canali ("0,85" è l'overhead) servono delle NAND flash da almeno 2.100 MT/s, non 3.600 MT/s.

Oltrepassato ciò, parliamo del perché dico che questo SSD è "più interessante da un punto di vista accademico che delle performance".

Micron sulla propria pagina parla di una nuova tecnologia che riguarda il 2600: adaptive write technology (AWT). Dice che
Quote:
l'SSD 2600 offre prestazioni di scrittura superiori grazie a una soluzione multilivello in modalità caching dinamico SLC, TLC e QLC.
Letta 'sta roba mi son detto "boh, cosa vuol dire? che AWT offre la possibilità di usare la pTLC cache e la pQLC cache?". Leggendo nelle note Micron scrive:
Quote:
3. AWT migliora la velocità di scrittura sequenziale di 4 volte per il primo 40% della capacità specificata dell'SSD. Basato sui test di Micron scrivendo un file da 400GB su un SSD QLC da 1TB.
Letta quest'altra cosa mi son detto "vabbè, penso che sia semplicemente un modo per chiamare la cache pSLC, pTLC e pQLC". Non demordo però e mi vado a leggere la scheda tecnica. Qui le cose si fanno molto più interessanti e diverse da come pensavo.

Micron scrive:
Quote:
AWT consente agli SSD QLC di scrivere dati a velocità SLC e TLC mantenendo l'economicità di QLC. Il dispositivo NAND non cambia (si tratta sempre di NAND QLC), ma cambia solo la modalità di scrittura dei dati. Micron AWT può ottimizzare l'esperienza dell'utente scrivendo automaticamente i dati in modalità SLC, TLC o QLC.
AWT non è DWA (quindi cache SLC dinamica) ma non è neanche la solita cache SLC che abbiamo visto: AWT è cache SLC, cache TLC ed eventualmente cache QLC. Dico "eventualmente" perché teoricamente per un SSD QLC non esiste alcuna cache QLC, scrive sulle NAND flash QLC e basta, ma per un SSD PLC la cache QLC ha assolutamente senso. La Figura 2 mostra la combinazione di pSLC, pTLC e pQLC che formano AWT: pSLC è più larga che alta perché è più performante, pTLC è più alta e meno larga di pSLC perché ha 3 bit per cella e performance peggiori e stessa cosa pQLC (4 bit per cella) rispetto a pTLC, soltanto che combinando tutte queste tecniche insieme si ottiene il connubio perfetto per AWT, quindi la miglior configurazione in termini di rapporto capacità-durata, non a caso il triangolo è "perfetto".

Infine, per spiegare l'intero processo di AWT c'è la Figura 3:
1. vengono scritti i dati nella cache SLC finché non viene riempita;
2. dopo aver riempito la cache SLC si scrivono i dati nella cache TLC finché anch'essa non viene riempita;
3. una volta riempite entrambe le cache l'SSD migra i dati dalle due cache alle NAND flash QLC. Questo è il processo di folding e viene eseguito quando l'SSD si trova in uno stato di idle, anche per poco tempo;
4. completamente del folding;
5. tutti i dati delle cache sono stati trasferiti nelle NAND flash QLC e ora ci sono entrambe le cache libere. Da qui si possono riscriverle e riempirle, ovviamente con capacità ridotta dal momento che si parla di cache dinamica.

Anche quest'immagine-riassunto è molto utile.

Apparentemente il Micron 2600 è l'unico attuale SSD con AWT. Mi chiedo se questa tecnologia verrà installata anche su futuri SSD TLC ma penso che prima bisogni vedere come si comporta, se è effettivamente vantaggiosa o meno.

Il mio parere personale è che sembra una tecnologia stupida, penso che sia molto meglio un'intera cache SLC piuttosto che metà pSLC e metà pTLC. Con metà pTLC hai letteralmente un degrado delle performance dalla pSLC e se puoi evitare questo degrado impostando la cache interamente in pSLC, che senso ha condividere metà di questa porzione in pTLC? Boh, chi lo sa, se sono arrivati ciò è perché magari è vantaggioso in termini di costi/performance. Penso che questa modalità avrebbe senso per i primi SSD da 16TB (raggiungibili grazie a questi die da 2Tb): se per qualche motivo non riesci a fare una gigantesca cache SLC per questi dispositivi allora allunghi il brodo con una cache pTLC, ma il Micron 2600 non ha capacità neanche da 8TB, figurati 16TB. Magari AWT esiste per questo e ora come ora la stanno soltanto introducendo dandoci un assaggio...

In ogni caso, dobbiamo attendere recensioni più complete come quelle di Tom's Hardware per sentire la loro su AWT e vedere come si comporta questa cache pSLC e pTLC. Se pTLC è un allungamento della pSLC è vincente come tecnica, se è un taglio è soltanto un peggioramento secondo me.

P.S.: mi chiedo anche perché pTLC e non pMLC. Se usciranno/troverò brevetti in futuro li leggerò e condividerò.

Ultima modifica di Black (Wooden Law) : 26-06-2025 alle 21:52.
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2025, 00:09   #23327
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
So che questo thread parla di SSD ma questa notizia può essere rilevante ai chip DRAM installati negli SSD: attualmente i chip DRAM DDR4 costano quanto (se non di più) quelli DDR5. Il motivo dietro a questo fenomeno è la riduzione di produzione da parte dei produttori come Micron che ha annunciato che entro fine anno vuole terminare completamente la produzione di questo tipo di memoria.

Il motivo dietro al taglio di produzione delle DDR4 è la Cina, particolarmente CXMT, un nuovo produttore che è entrato nel mercato delle DRAM a maggio 2024. Da quando è entrato nel mercato ha incominciato a vedere banchi a prezzo inferiore rispetto alla concorrenza per "rubare" del market share e gli altri produttori (SK hynix, Samsung e Micron) per impedire che succedesse ciò hanno seguito questo trend di abbassamento dei prezzi. Mentre i produttori abbassavano i prezzi delle DDR4 ne abbassavano anche la produzione visto che non facevano un gran profitto... questo tutti i produttori tranne CXMT, che ha continuato ad abbassare i prezzi aumentando sempre di più l'offerta. In quel momento (ossia fino a dicembre 2024) CXMT era l'azienda dominante nell'offerta di moduli DDR4.

A dicembre 2024 succede che CXMT ha deciso di spostare il focus della produzione sulle DDR5 producendo e offrendo meno DDR4 di quanto avesse fatto prima, aumentando così i prezzi. Dal momento che per far avvenire questa transizione ci vuole un trimestre¹ i prezzi delle DDR4 hanno incominciato ad aumentare da marzo 2025, esattamente 3-4 mesi dopo dicembre.

The Memory Guy (vedere nota a piè di pagina) dice che tutto questo è successo perché visto l'obbiettivo della Cina di diventare autoindipendente nel settore dei semiconduttori (Made In China 2025) ad essa non poteva mancare una fetta del mercato delle DRAM, quindi ha deciso di introdursi tramite una società sotto proprietà del governo (proprio come YMTC) che non è costretta a fare profitto ma appunto ad introdursi in questo mercato. Non a caso hanno fatto la transizione DDR4-DDR5 dopo poco che sono entranti nel mercato, se CXMT fosse stata un'azienda che avesse puntato sul profitto l'avrebbe fatto più in avanti visto che è un'operazione costosa.

Concludendo, vista questa situazione direi che è probabile vedere in futuro chip DRAM DDR5 negli SSD, specialmente chip CXMT negli SSD cinesi.

¹: https://thememoryguy.com/some-clarit...4-price-surge/.
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2025, 15:58   #23328
@Liupen
Senior Member
 
L'Avatar di @Liupen
 
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 455
Ho letto i paper e quello che mi hai scritto Black, devo dire che sul ‘On Pitch Select Gate’ l’avevamo inquadrato già bene cosa fa e che vantaggi porta alle BiCS 8.
Resta comunque dvvero impressionante come si riesca a fare delle cose…dei miglioramenti, che funzionino a livello industriale, che sono grandi pochi nanometri se non micron…
Incredibile e nello stesso tempo entusiasmante per gli ingegneri che l’hanno affrontato… e risolto.

Per quanto riguarda “NAND flash innovation in the AI Era”, trovo veramente una graaaande forzatura voler inserire la parola “AI” con Nand Flash. Insomma il fatto che le nand siano più dense e un poco più veloci, nulla aggiunge alle necessità dello storage cluod necessario alle AI per funzionare o alle forme di memoria HBM che sono su un pianeta diverso.
Nell’AI, come detto nel paper, c’è una parte di addestramento (la banca dati, quella che può essere svolta anche offline) e la inferenza, ossia l’interfaccia, la comunicazione da e verso l’utente dell’assistente virtuale, o bot, agente (in termini un po più propri).
Nell’uno e nel secondo caso, è logico che si cerchi lo storage che a parità di capienza si più perfomente e a bassa latenza; quindi la soluzione non può che ricadere su ssd con protocollo nvme.
Se creare grandi ssd è una condizione in progressione (il paper dice che la densità cresce del 30% circa all’anno da quando si ha memoria delle Nand flash) allora è una forzatura dire che ci sono delle nand flash dedicate all’AI.

A parte questa cosa, sembra che il modo con cui hanno realizzato un Micron G9 die più denso non aggiungendo layer più di tanto è proprio la loro versione di On Pitch Select Gate … annamo bene! (detto proprio come faceva Sora Lella).
Qui si scopiazzano le soluzioni… ed ho una mezza idea che il primo sia stato comunque YMTC (che ne pensi Black?).

“G9 è anche il primo nodo a introdurre la metallizzazione WL al molibdeno per una maggiore resistenza WL”
Questa cosa è forse più interessante.
“È stata effettuata un'attenta selezione del passo dei livelli e del rapporto ossido-nitruro per una riduzione ottimale dei costi senza compromettere affidabilità e prestazioni”.
Quindi se ben afferro il concetto, sostituisce un materiale con un altro al fine di abbassare i costi di produzione.

Il discorso (del paper) su scalabilità, miglioramento della latenza airgap e lettura, devo ammettere che sono difficili da capire a fondo.

Si, sembra che le B68S siano a 2 decks.

Riguardo FUTURE SCALING PATH, come mi dicevi, vedo anch’io uso delle tecnologie YMTC di wafer-to-wafer bonding, ma quando dice: “The wafer bonding approach (DWB = Dual Wafer Bond – one array and one CMOS wafer) decouples the array thermal processing from CMOS and is logical next step to enable I/O speeds beyond 3.6GT/s” mi sembra molto il metodo di disaccoppiamento di Kioxia (CBA).

L’impressione generale che ho avuto, avevdo ora visto da vicino le BiCS 8 e le G9, è che Kioxia sia più avanti di Micron.




Quote:
Originariamente inviato da Black (Wooden Law) Guarda i messaggi
@Liupen è appena uscita la recensione di TweakTown sul Micron 2600, un E29T (prima volta che vediamo questo controller) con le N69R (G9), cioè 276L QLC. Trovo questo SSD più interessante da un punto di vista accademico che delle performance.

Prima di tutto, parlando dell'SSD, usa controller e NAND flash superrecenti. L'E29T sembra essere un'evoluzione dell'eccellente E27T competitor del MAP1602: penso che abbia 3 core ARM Cortex-R5 di cui due di essi CoXProcessor, ha 4 canali da 3.600 MT/s ciascuno con 16 CE totali ed è costruito su un nodo da 12 nm di TSMC. Fin qui tutto uguale all'E27T, l'unica differenza che mi sembra di vedere è un miglioramento dal punto di vista dell'affidabilità grazie all'ECC LDPC e RAID di settima generazione di Phison quando l'E27T usa un motore di quinta generazione.

Parlando delle NAND flash, invece, come già detto sono delle N69R. Nel sample di TT da 2TB si ha soltanto un chip NAND flash visto che ci sono all'interno 8 die da 2Tb ciascuno, e infatti 256GB (ottenuto facendo 2.048 / 8) * 8 = 2.048GB. Abbiamo di fronte, quindi, il primo chip NAND flash con die da 2Tb.
La velocità dell'I/O di queste NAND flash è di 3.600 MT/s.

Vedendo la foto di TT si ottiene il codice FBGA, ossia NY376. Mettendolo nel decoder di Micron otteniamo che il S/N è MT29F16T08GQLBHL5-24QA:B. Da qui si possono scoprire tante belle informazioni tramite lo spreadsheet cinese:
- "16T" = 16.384Gb, 2TB di package;
- "Q" = 8 die, 4 nCE, 4 RnB e 4 I/O;
- "24" = 2.400 MT/s.

Strano che lo spreadsheet dica 2.400 MT/s se queste NAND flash sono listate per 3.600 MT/s, vero? In realtà ha senso come cosa: 7,2 / 0,85 = 8,47; 8,47 / 4 = 2.100 MT/s, ciò vuol dire che per raggiungere 7,2 GB/s con 4 canali ("0,85" è l'overhead) servono delle NAND flash da almeno 2.100 MT/s, non 3.600 MT/s.

Oltrepassato ciò, parliamo del perché dico che questo SSD è "più interessante da un punto di vista accademico che delle performance".

Micron sulla propria pagina parla di una nuova tecnologia che riguarda il 2600: adaptive write technology (AWT). Dice che

Letta 'sta roba mi son detto "boh, cosa vuol dire? che AWT offre la possibilità di usare la pTLC cache e la pQLC cache?". Leggendo nelle note Micron scrive:

Letta quest'altra cosa mi son detto "vabbè, penso che sia semplicemente un modo per chiamare la cache pSLC, pTLC e pQLC". Non demordo però e mi vado a leggere la scheda tecnica. Qui le cose si fanno molto più interessanti e diverse da come pensavo.

Micron scrive:


AWT non è DWA (quindi cache SLC dinamica) ma non è neanche la solita cache SLC che abbiamo visto: AWT è cache SLC, cache TLC ed eventualmente cache QLC. Dico "eventualmente" perché teoricamente per un SSD QLC non esiste alcuna cache QLC, scrive sulle NAND flash QLC e basta, ma per un SSD PLC la cache QLC ha assolutamente senso. La Figura 2 mostra la combinazione di pSLC, pTLC e pQLC che formano AWT: pSLC è più larga che alta perché è più performante, pTLC è più alta e meno larga di pSLC perché ha 3 bit per cella e performance peggiori e stessa cosa pQLC (4 bit per cella) rispetto a pTLC, soltanto che combinando tutte queste tecniche insieme si ottiene il connubio perfetto per AWT, quindi la miglior configurazione in termini di rapporto capacità-durata, non a caso il triangolo è "perfetto".

Infine, per spiegare l'intero processo di AWT c'è la Figura 3:
1. vengono scritti i dati nella cache SLC finché non viene riempita;
2. dopo aver riempito la cache SLC si scrivono i dati nella cache TLC finché anch'essa non viene riempita;
3. una volta riempite entrambe le cache l'SSD migra i dati dalle due cache alle NAND flash QLC. Questo è il processo di folding e viene eseguito quando l'SSD si trova in uno stato di idle, anche per poco tempo;
4. completamente del folding;
5. tutti i dati delle cache sono stati trasferiti nelle NAND flash QLC e ora ci sono entrambe le cache libere. Da qui si possono riscriverle e riempirle, ovviamente con capacità ridotta dal momento che si parla di cache dinamica.

Anche quest'immagine-riassunto è molto utile.

Apparentemente il Micron 2600 è l'unico attuale SSD con AWT. Mi chiedo se questa tecnologia verrà installata anche su futuri SSD TLC ma penso che prima bisogni vedere come si comporta, se è effettivamente vantaggiosa o meno.

Il mio parere personale è che sembra una tecnologia stupida, penso che sia molto meglio un'intera cache SLC piuttosto che metà pSLC e metà pTLC. Con metà pTLC hai letteralmente un degrado delle performance dalla pSLC e se puoi evitare questo degrado impostando la cache interamente in pSLC, che senso ha condividere metà di questa porzione in pTLC? Boh, chi lo sa, se sono arrivati ciò è perché magari è vantaggioso in termini di costi/performance. Penso che questa modalità avrebbe senso per i primi SSD da 16TB (raggiungibili grazie a questi die da 2Tb): se per qualche motivo non riesci a fare una gigantesca cache SLC per questi dispositivi allora allunghi il brodo con una cache pTLC, ma il Micron 2600 non ha capacità neanche da 8TB, figurati 16TB. Magari AWT esiste per questo e ora come ora la stanno soltanto introducendo dandoci un assaggio...

In ogni caso, dobbiamo attendere recensioni più complete come quelle di Tom's Hardware per sentire la loro su AWT e vedere come si comporta questa cache pSLC e pTLC. Se pTLC è un allungamento della pSLC è vincente come tecnica, se è un taglio è soltanto un peggioramento secondo me.

P.S.: mi chiedo anche perché pTLC e non pMLC. Se usciranno/troverò brevetti in futuro li leggerò e condividerò.
NY376? non ha scheda sul sito Micron... chissà. Ce da dire che le G9 TLC sono a 3600 MTPS, non so se effettivamente le corrispettive QLC arrivano a 2400.

AWT non ne avevo ancora sentito parlare. Dalla scheda del 2600 viene definita: "soluzione di caching dinamico multilivello".
Il fatto che ce ne fosse bisogno, indica che in generale gli ssd QLC sono inadatti alle grandi scritture e si deve correre ai ripari. Si..ok. Ma se l'ssd è pieno, qualsiasi cache è ininfluente.
Quindi sono d'accordo con te.
Mi sembra più l'ennesima forzatura di marketing per farci digerire i QLC che orma (nelle nuove 3xxL nand)) stanno soppiantando i TLC.
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI

Ultima modifica di @Liupen : 27-06-2025 alle 16:01.
@Liupen è offline   Rispondi citando il messaggio o parte di esso
Old 27-06-2025, 18:19   #23329
pitx
Senior Member
 
L'Avatar di pitx
 
Iscritto dal: Nov 2000
Città: Loud™
Messaggi: 5276
Tra Crucial BX500, Patriot P220, PNY CS900, Silicon Power A55 in versione 1TB, quale?
__________________
On-Line by: Acer Aspire 4920+Lumia550 RN5A TIMIronX - Le mie: Trattative - Il mio: DeviantArt
Freeware/Opensource - Masterizzare?: Alternative a Nero - ImgBurn Thread Ufficiale
pitx è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 09:33   #23330
unnilennium
Senior Member
 
L'Avatar di unnilennium
 
Iscritto dal: Jan 2005
Città: ichnusa
Messaggi: 17830
Io tra quelli consigliati vedo solo il silicon Power, crucial bx500 vade retro, e gli altri non li conosco proprio

Inviato dal mio 23127PN0CG utilizzando Tapatalk
unnilennium è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 13:31   #23331
DOC-BROWN
Senior Member
 
L'Avatar di DOC-BROWN
 
Iscritto dal: Nov 2020
Messaggi: 1629
Quote:
Originariamente inviato da frafelix Guarda i messaggi
Hai clonato il sistema? Perché l'unico modo che hai per sapere se dipende dall'ssd (a parte verificare se i parametri smart dicono qualcosa di utile) è staccare tutte le periferiche esterne, resettare il bios e installare win da 0. Se così hai problemi con il nuovo e non con il vecchio allora potrebbe dipendere dall'ssd
grazie, yes si clonato ......


interessante , resettare il BIOS, ma a cosa serve e ... come si fa ?
DOC-BROWN è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 14:22   #23332
makka
Senior Member
 
L'Avatar di makka
 
Iscritto dal: Dec 2004
Città: Zena - Pegli
Messaggi: 1727
Con "reset del bios" penso si intenda entrare nel bios e caricare i valori di default.
Ogni bios è un po' diverso ma la possibilità c'è in tutti.

Potresti anche provare ad attivare il registro di avvio, trovi la voce
se apri msconfig e vai nel tab opzioni di avvio.
Magari si capisce dove perde tanto tempo in fase di boot.
__________________
Intel Core i5 12500 Msi Pro Z690-P 32Gb Corsair Dominator Platinum GTX1660Super Sk Hynix P41 1Tb Crucial P5+ 1Tb Netac NV5000 2Tb AC Baydream LG 29WK500
Beelink Mini S12Pro N100 16Gb Ssd 512Gb Samsung Galaxy Tab A7 Realme XT
makka è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 15:14   #23333
DOC-BROWN
Senior Member
 
L'Avatar di DOC-BROWN
 
Iscritto dal: Nov 2020
Messaggi: 1629
Quote:
Originariamente inviato da makka Guarda i messaggi
Con "reset del bios" penso si intenda entrare nel bios e caricare i valori di default.
Ogni bios è un po' diverso ma la possibilità c'è in tutti.

Potresti anche provare ad attivare il registro di avvio, trovi la voce
se apri msconfig e vai nel tab opzioni di avvio.
Magari si capisce dove perde tanto tempo in fase di boot.

fatto ma li NON mi da nulla e dice di aprire gestione attivita ' , da li
vedo i processi in avvio ma non vedo per attivare il registro di avvio ....
DOC-BROWN è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 15:51   #23334
Nicodemo Timoteo Taddeo
Senior Member
 
L'Avatar di Nicodemo Timoteo Taddeo
 
Iscritto dal: Mar 2008
Messaggi: 19805
Quote:
Originariamente inviato da DOC-BROWN Guarda i messaggi
fatto ma li NON mi da nulla e dice di aprire gestione attivita ' , da li
vedo i processi in avvio ma non vedo per attivare il registro di avvio ....
Te l'ha scritto chiaramente: tab (scheda) Opzioni di avvio in msconfig
Nicodemo Timoteo Taddeo è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 18:53   #23335
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Per quanto riguarda “NAND flash innovation in the AI Era”, trovo veramente una graaaande forzatura voler inserire la parola “AI” con Nand Flash. Insomma il fatto che le nand siano più dense e un poco più veloci, nulla aggiunge alle necessità dello storage cluod necessario alle AI per funzionare o alle forme di memoria HBM che sono su un pianeta diverso.
Nell’AI, come detto nel paper, c’è una parte di addestramento (la banca dati, quella che può essere svolta anche offline) e la inferenza, ossia l’interfaccia, la comunicazione da e verso l’utente dell’assistente virtuale, o bot, agente (in termini un po più propri).
Nell’uno e nel secondo caso, è logico che si cerchi lo storage che a parità di capienza si più perfomente e a bassa latenza; quindi la soluzione non può che ricadere su ssd con protocollo nvme.
Se creare grandi ssd è una condizione in progressione (il paper dice che la densità cresce del 30% circa all’anno da quando si ha memoria delle Nand flash) allora è una forzatura dire che ci sono delle nand flash dedicate all’AI.
Questo è vero ma purtroppo al giorno d’oggi il termine “AI” è abusato in qualsiasi caso e quindi immagino che ci siano degli scenari in cui venga usato a caso. Penso che il settore degli SSD abbia a che fare con l’IA da anni, non dalle Micron G9 (per dire).
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
A parte questa cosa, sembra che il modo con cui hanno realizzato un Micron G9 die più denso non aggiungendo layer più di tanto è proprio la loro versione di On Pitch Select Gate … annamo bene! (detto proprio come faceva Sora Lella).
Qui si scopiazzano le soluzioni… ed ho una mezza idea che il primo sia stato comunque YMTC (che ne pensi Black?).
Alla fine tutti i produttori usano OPS, semplicemente Kioxia o l’ha usato per prima (le BiCS8 sono uscite prima delle B68S) o l’ha esposto come una novità assoluta. Un po’ come Micron con CMOS-under-Array (CuA): lei è stata la prima a portarlo con le 32L ma poi ogni produttore ne ha fatto una proprio versione scopiazzando completamente il concetto.

Non son sicuro che YMTC usi OPS. Purtroppo di paper in stile ISSCC/IEEE su NAND flash YMTC non ce ne sono, ci sono soltanto i datasheet a cui non ho l’accesso né per questioni economiche né per questioni di disponibilità, ma potrebbe essere che anche loro adottino OPS da un po’ di tempo sulle loro NAND flash.
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
“G9 è anche il primo nodo a introdurre la metallizzazione WL al molibdeno per una maggiore resistenza WL”
Questa cosa è forse più interessante.
Giusto, mi ero dimenticato.
Penso che siano gli unici ad utilizzare questa WL al molibdeno. Qui leggo tanti studi interessanti sull’uso di questo materiale nelle NAND flash, devo leggermeli.
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Il discorso (del paper) su scalabilità, miglioramento della latenza airgap e lettura, devo ammettere che sono difficili da capire a fondo.
Provo a spiegare:
Un miglioramento nella latenza in lettura è stato ottenuto dall’utilizzo di airgap tra le BL. In realtà questi airgap non sono per nulla una nuova tecnica, vengono utilizzati dalla produzione delle NAND flash, quindi anche quelle 2D. Anzi, specialmente in quelle 2D dove il passo delle BL veniva ridotto generazione in generazione e l’interferenza delle celle aumentava sempre di più.
Ho visto spesso questo “airgap” farsi chiamare “shallow trench isolation (SHI)” ma dovrebbero esser la stessa cosa cioè due componenti che prevengono un’eccessiva interferenza tra transistor creando appunto una differenza, un gap.
Micron nel paper dice che la capacitanza delle BL è molto importante e che il rapporto tra BL-cap (capacità parassita delle BL) e Isense (corrente che scorre nelle BL durante una lettura) rappresenta il tempo che ci mette la BL ad assumere del potenziale. Quindi BL-cap / Isense = ritardo RC, ossia il ritardo resistenza-capacità, quanto tempo ci vuole per la BL a caricare o scaricare una tensione. A quanto pare si vuole avere sia BL-cap che Isense bassi e per ottenere ciò sono necessari degli airgap tra le BL (abbassano la capacità parassita) e aumentare il numero di WL/layer che diminuisce Isense.

Altro modo per migliorare la latenza di lettura è stata letteralmente di tagliare in due le WL e farle comandare ciascuna da un set di “driver di stringhe”. Per mitigare questo dimezzamento della WL hanno aumentato il numero di sottoblocchi per ogni blocco aumentando allo stesso tempo il numero di driver di stringhe. Per ridurre ulteriormente la latenza è stata l’introduzione di scale “bidirezionali”. Dall’immagine mi sembra che le scale vengano condivise tra le mezze WL, poi non so, sono molto vaghi nella spiegazione. Comunque le scale sono le connessioni tra i CG bassi e alti ma penso che questo tu lo sappia.

Con “scalabilità”, invece, cosa intendi? tutto il discorso su tecnologie future come “confined-SN”, “FeNAND”, ecc.?
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
L’impressione generale che ho avuto, avevdo ora visto da vicino le BiCS 8 e le G9, è che Kioxia sia più avanti di Micron.
Totalmente d’accordo Liupen. Mi son letto anche l’ISSCC sulle BiCS10 e sulle Samsung V10 e attualmente come progresso tecnologico penso che Kioxia e Samsung siano i più avanti anche se c’è da vedere che cos’ha fatto YMTC con le sue Xtacking 4.0 (267L).
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
AWT non ne avevo ancora sentito parlare. Dalla scheda del 2600 viene definita: "soluzione di caching dinamico multilivello".
Il fatto che ce ne fosse bisogno, indica che in generale gli ssd QLC sono inadatti alle grandi scritture e si deve correre ai ripari. Si..ok. Ma se l'ssd è pieno, qualsiasi cache è ininfluente.
Quindi sono d'accordo con te.
Mi sembra più l'ennesima forzatura di marketing per farci digerire i QLC che orma (nelle nuove 3xxL nand)) stanno soppiantando i TLC.
Ho trovato un bel brevetto (2023) su AWT: https://patentimages.storage.googlea...US12086466.pdf.
L’ho letto tutto ma è di un’incredibile noia, mi sembra che dicano le stesse cose 1.000 volte. I punti salienti, infatti, sono:
- AWT può funzionare in qualsiasi modalità di NAND flash esistente: pSLC, pMLC, pTLC, pQLC e addirittura pPLC;
- la cache viene determinata in base alla frequenza di accesso ai blocchi (per esempio i blocchi a cui viene effettuato l’accesso meno raramente vengono programmati in pSLC mentre l’opposto per i blocchi pPLC) che può essere il tempo che ci passa tra due operazioni consecutive, la durata di tempo tra un’operazione di scrittura e una di lettura, ecc. Per determinare la frequenza di accesso di un blocco si tiene traccia delle letture effettuate in quel blocco. Si può anche tener conto del tasso di errore delle WL e una soglia di capacità usata dall’utente dell’SSD, per esempio con una capacità di dati memorizzati minore del 25% si scrive in pSLC, tra 25% e 50% pSLC e pMLC, tra 50% e 75% pSLC, pMLC e pTLC, ecc. Può essere un mix in realtà: se per esempio l’SSD è pieno al 30% (pSLC e pMLC) ma una WL ha un determinato tasso di errore anziché programma sia in pSLC che pMLC programma solo in pMLC. C’è però da dire che la frequenza d’accesso prevale sulla capacità dei dati: non importa se l’SSD sia occupato per più del 75% e dovrebbe scrivere nelle NAND flash QLC, se l’accesso ai blocchi è nel range di pSLC i blocchi verranno scritti in pSLC. In questo caso, quindi, la soglia della capacità occupata dei dati nell’SSD attiva soltanto una modalità in più, non obbliga a far scrivere tutti i dati in entrata lì dentro;
- AWT può rendere una cella pSLC in pMLC (per esempio) aggiungendole soltanto un bit anche non inerente all’altro bit mantenendo quest’ultimo intatto. Se ho quindi una cella in pSLC già programmata, le aggiungo un altro bit e diventa pMLC;
- scrivendo prima in pSLC hai una migliore affidabilità grazie ad un uso ridotto dell’ECC (ci sono meno errori avendo gli stati di tensione di soglia più ampi tra di loro) e soprattutto puoi prevenire meglio la perdita dei dati. Micron, infatti, ci dice che se perdi corrente durante un’operazione di scrittura in MLC (esempio) i dati non sono persi essendo già scritti in pSLC.

È un bel wall of text ma volevo essere il più chiaro possibile. Forse per la prima volta posso essere io a dire “se hai dubbi chiedi”.
Quote:
Originariamente inviato da pitx Guarda i messaggi
Tra Crucial BX500, Patriot P220, PNY CS900, Silicon Power A55 in versione 1TB, quale?
IMHO il migliore è l’A55, semplicemente perché è l’unico TLC rimasto a queste capacità (anche se potrebbe capitare con NAND flash QLC).

Ultima modifica di Black (Wooden Law) : 30-06-2025 alle 09:12.
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 19:41   #23336
Arrow0309
Senior Member
 
L'Avatar di Arrow0309
 
Iscritto dal: Feb 2009
Città: Manchester, UK
Messaggi: 14664
Quote:
Originariamente inviato da Black (Wooden Law) Guarda i messaggi
40TB scritti su un SSD del genere sono un niente, di 'sto passo fai prima ad andare tu in pensione che lui a morire. Le performance, oltretutto, sono come se l'SSD avesse il 0% di usura...
Allora sto a posto col mio (più) vecchio WD SN770 2tb:


Pensavo di sostituirlo con calma anche con un 7100 per rimanere sul dramless ma gli concedo di lavorare ancora un po

Quote:
Originariamente inviato da Black (Wooden Law) Guarda i messaggi
Già, per ora sembra che il T705 sia l’unico PCIe 5.0 decente come rapporto qualtià-prezzo
Mi approfitto e posto un crystal pure del mio system drive (T705), il secondo che faccio (ed ha sui 3.6 Tb scritti):

__________________
corsair rm1000x ☯ lancool 3 rgb ║ b650 aorus elite ax v2 ✌ 7800 icstriddi ✪ thermalright mjolnir black ♒ 48gb Vengeance 6000 ║ PNY rtx 4080⚡nvme 5.0 - Crucial T705 1Tb⚡4.0 - fanxiang s880 4tb ✪ wd_black SN770 2Tb sata wd sn510 4tb + sn510 2tb ⏩ yulong DaArt Aurora & schiit Vali 2 ++ hifiman ananda v3 🎵 akg k712 pro ║ cooler master gp27q ☣ endorfy thock 75% + pulsar x2h 4k

Arrow0309 è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 20:13   #23337
pitx
Senior Member
 
L'Avatar di pitx
 
Iscritto dal: Nov 2000
Città: Loud™
Messaggi: 5276
Quote:
Originariamente inviato da Black (Wooden Law) Guarda i messaggi

IMHO il migliore è l’A55, semplicemente perché è l’unico TLC rimasto a queste capacità (anche se potrebbe capitare con NAND flash QLC).
Comprandolo su Amazon, si può sempre fare il reso in caso di QLC, no?
__________________
On-Line by: Acer Aspire 4920+Lumia550 RN5A TIMIronX - Le mie: Trattative - Il mio: DeviantArt
Freeware/Opensource - Masterizzare?: Alternative a Nero - ImgBurn Thread Ufficiale
pitx è offline   Rispondi citando il messaggio o parte di esso
Old 28-06-2025, 20:21   #23338
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
Quote:
Originariamente inviato da Arrow0309 Guarda i messaggi
Allora sto a posto col mio (più) vecchio WD SN770 2tb:


Pensavo di sostituirlo con calma anche con un 7100 per rimanere sul dramless ma gli concedo di lavorare ancora un po
Nonostante sia DRAM-less, l’SN770 non è un cattivo SSD. Son sicuro che possa fare molto di più di 19TB di scritture.

P.S.: l’SN7100 è un ottimo SSD ma penso che sia peggiori dei rivali cinesi, soprattutto dal punto di vista del prezzo.
Quote:
Originariamente inviato da Arrow0309 Guarda i messaggi
Mi approfitto e posto un crystal pure del mio system drive (T705), il secondo che faccio (ed ha sui 3.6 Tb scritti):

Bestia di SSD.
Quote:
Originariamente inviato da pitx Guarda i messaggi
Comprandolo su Amazon, si può sempre fare il reso in caso di QLC, no?
Sì, così te ne rispediscono un altro QLC…
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
Old 30-06-2025, 15:41   #23339
@Liupen
Senior Member
 
L'Avatar di @Liupen
 
Iscritto dal: Jan 2018
Città: Torino
Messaggi: 455
Quote:
Originariamente inviato da Black (Wooden Law) Guarda i messaggi
Provo a spiegare:
Un miglioramento nella latenza in lettura è stato ottenuto dall’utilizzo di airgap tra le BL. In realtà questi airgap non sono per nulla una nuova tecnica, vengono utilizzati dalla produzione delle NAND flash, quindi anche quelle 2D. Anzi, specialmente in quelle 2D dove il passo delle BL veniva ridotto generazione in generazione e l’interferenza delle celle aumentava sempre di più.
Ho visto spesso questo “airgap” farsi chiamare “shallow trench isolation (SHI)” ma dovrebbero esser la stessa cosa cioè due componenti che prevengono un’eccessiva interferenza tra transistor creando appunto una differenza, un gap.
Micron nel paper dice che la capacitanza delle BL è molto importante e che il rapporto tra BL-cap (capacità parassita delle BL) e Isense (corrente che scorre nelle BL durante una lettura) rappresenta il tempo che ci mette la BL ad assumere del potenziale. Quindi BL-cap / Isense = ritardo RC, ossia il ritardo resistenza-capacità, quanto tempo ci vuole per la BL a caricare o scaricare una tensione. A quanto pare si vuole avere sia BL-cap che Isense bassi e per ottenere ciò sono necessari degli airgap tra le BL (abbassano la capacità parassita) e aumentare il numero di WL/layer che diminuisce Isense.

Altro modo per migliorare la latenza di lettura è stata letteralmente di tagliare in due le WL e farle comandare ciascuna da un set di “driver di stringhe”. Per mitigare questo dimezzamento della WL hanno aumentato il numero di sottoblocchi per ogni blocco aumentando allo stesso tempo il numero di driver di stringhe. Per ridurre ulteriormente la latenza è stata l’introduzione di scale “bidirezionali”. Dall’immagine mi sembra che le scale vengano condivise tra le mezze WL, poi non so, sono molto vaghi nella spiegazione. Comunque le scale sono le connessioni tra i CG bassi e alti ma penso che questo tu lo sappia.

Con “scalabilità”, invece, cosa intendi? tutto il discorso su tecnologie future come “confined-SN”, “FeNAND”, ecc.?
Scalabilità è il titolo del primo "punto" che toccano dopo aver parlato (e non spiegato) l'utilizzo del molibdeno come sostanza di "sostituzione" (il bisticcio di parole è voluto).

Si parla di Area scaling to enable plane parallelism.

Scalibilità = riduzione dell'area a parità di capacità

Da cosa capisco, la G9 dice, è a 6 deck come la precedente gen, che l'architettura del buffer di pagina (PB) ha dovuto essere adattata a un passo di 6 bitline.
Il concetto di BL ok, ma quì introducono un PB.

Dice: è stata ottenuta una riduzione del 50% dell'area del buffer di pagina rispetto a G8.
e continua dicendo:
Ciò è stato possibile introducendo un processo di raddoppio del passo del metallo per il livello di interconnessione, nonché un'attenta ottimizzazione del dispositivo CMOS per mantenere le specifiche di corrente di standby nonostante la significativa riduzione del transistor del buffer di pagina sia in lunghezza che in larghezza.

Nella figura poi dice di 16 BL il che mi spiazza... 16 non è divisibile per 6 quindi non ho idea del perchè e cosa siano questi numeri.




Sull'airgap meno male tu hai capito, io tra testo e immagini proprio pensavo fosse altro, tipo un diverso modo di inserire le bitline.




In Read latency improvement : Word-Line RC and loading,

WL-RC: si riferisce all'effetto combinato della resistenza e della capacità della linea di parola, che può influire significativamente sulla velocità e sull'affidabilità delle operazioni di memoria.

Il testo dice:
Per un incremento più rapido del potenziale della WL durante l'operazione di lettura, la riduzione della WL-RC di metà della WL è stata comunemente applicata nei prodotti più recenti, ma nella maggior parte dei casi è accompagnata dalla duplicazione di un set di driver di stringa per pilotare ogni metà della WL in un piano.

Quindi è condizione normale che nelle 3D nand le WL siano divise in due in modo da massimizzare velocità e affidabilità di lettura... e fin quì, ok.
Pare anche ovvio che le linee nel CMOS (chiamiamolo genericamente) duplichino anche loro.. anche quì, ok.

Poi dice:
Come mitigazione, è stata applicata una maggiore condivisione dei driver aumentando il numero di sottoblocchi per blocco per ridurre il numero totale di driver per piano, ma con un aumento del carico dell'array e della corrente di funzionamento.

Mitigazione...de che? Mettiamo che si riferisca alla parte CMOS più oberata di prima.
Comunque per mitigare è stata applicata una maggiore condivisione, aumentando sottoblocchi dei blocchi... ma che razza di spiegazione è?!
Il funzionamento è imperscrutabile (ma si parla delle parte CMOS o gestionale della Nand) e con l'effetto di aumentare del carico dell'array e della corrente di funzionamento (che sinceramente non mi sembra una miglioria o un traguardo desiderabile) boh!

Continuando con l'ultimo pezzo:
La scala bidirezionale (SC) ha risolto il compromesso tra latenza di lettura, energia di lettura per bit ed efficienza dell'array, mostrato in Figura 8.

Ok, quindi la soluzione per ovviare a quanto detto (aumentare del carico dell'array e della corrente di funzionamento) è quello di usare per le nand una struttura SC... che non è mai stata usata da nessun altro!!

MMMh...no... la usano tutti i costruttori di nand 3D da 3 generazioni di 3D nand https://semiwiki.com/events/8116-tec...18-nand-flash/

Ma allora direi che Read latency improvement : Word-Line RC and loading è tutta una panzana o per lo meno non rappresenta una novità delle G9



Quote:
Originariamente inviato da Black (Wooden Law) Guarda i messaggi
Ho trovato un bel brevetto (2023) su AWT: https://patentimages.storage.googlea...US12086466.pdf.
L’ho letto tutto ma è di un’incredibile noia, mi sembra che dicano le stesse cose 1.000 volte. I punti salienti, infatti, sono:
- AWT può funzionare in qualsiasi modalità di NAND flash esistente: pSLC, pMLC, pTLC, pQLC e addirittura pPLC;
- la cache viene determinata in base alla frequenza di accesso ai blocchi (per esempio i blocchi a cui viene effettuato l’accesso meno raramente vengono programmati in pSLC mentre l’opposto per i blocchi pPLC) che può essere il tempo che ci passa tra due operazioni consecutive, la durata di tempo tra un’operazione di scrittura e una di lettura, ecc. Per determinare la frequenza di accesso di un blocco si tiene traccia delle letture effettuate in quel blocco. Si può anche tener conto del tasso di errore delle WL e una soglia di capacità usata dall’utente dell’SSD, per esempio con una capacità di dati memorizzati minore del 25% si scrive in pSLC, tra 25% e 50% pSLC e pMLC, tra 50% e 75% pSLC, pMLC e pTLC, ecc. Può essere un mix in realtà: se per esempio l’SSD è pieno al 30% (pSLC e pMLC) ma una WL ha un determinato tasso di errore anziché programma sia in pSLC che pMLC programma solo in pMLC. C’è però da dire che la frequenza d’accesso prevale sulla capacità dei dati: non importa se l’SSD sia occupato per più del 75% e dovrebbe scrivere nelle NAND flash QLC, se l’accesso ai blocchi è nel range di pSLC i blocchi verranno scritti in pSLC. In questo caso, quindi, la soglia della capacità occupata dei dati nell’SSD attiva soltanto una modalità in più, non obbliga a far scrivere tutti i dati in entrata lì dentro;
- AWT può rendere una cella pSLC in pMLC (per esempio) aggiungendole soltanto un bit anche non inerente all’altro bit mantenendo quest’ultimo intatto. Se ho quindi una cella in pSLC già programmata, le aggiungo un altro bit e diventa pMLC;
- scrivendo prima in pSLC hai una migliore affidabilità grazie ad un uso ridotto dell’ECC (ci sono meno errori avendo gli stati di tensione di soglia più ampi tra di loro) e soprattutto puoi prevenire meglio la perdita dei dati. Micron, infatti, ci dice che se perdi corrente durante un’operazione di scrittura in MLC (esempio) i dati non sono persi essendo già scritti in pSLC.

È un bel wall of text ma volevo essere il più chiaro possibile. Forse per la prima volta posso essere io a dire “se hai dubbi chiedi”.
Ma ti sembra che possa portare dei vantaggi reali perchè io ricordo bene quando qualche anno fà anche Intel rapid storage doveva monitorare i dati e tenere traccia di tutto per poi dare un boost alle scritture quando servivano e che invece... zero, peggio c'era solo il rapid storage di Samsung.
__________________
“La verità sola, fu figliola del tempo”
LEONARDO DA VINCI
@Liupen è offline   Rispondi citando il messaggio o parte di esso
Old 30-06-2025, 18:26   #23340
Black (Wooden Law)
Senior Member
 
L'Avatar di Black (Wooden Law)
 
Iscritto dal: Nov 2021
Città: Milano
Messaggi: 1194
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Ciò è stato possibile introducendo un processo di raddoppio del passo del metallo per il livello di interconnessione, nonché un'attenta ottimizzazione del dispositivo CMOS per mantenere le specifiche di corrente di standby nonostante la significativa riduzione del transistor del buffer di pagina sia in lunghezza che in larghezza.
'Sta parte non l'ho capita neanch'io (mi sembrano parole a caso...) ma l'unica cosa che ho capito è che hanno ridotto la dimensione dei page buffer (nella figura si vede che quelli sotto sono più piccoli) e il passo con le BL, cioè mi sembra che abbiano ridotto il numero di PB per BL. Prima c'erano 16 PB per 16 BL mentre ora 6 PB per 6 BL... Nel parallelo sembra che non ci sia differenza ma boh, io così l'ho intesa. Dubito che abbia capito correttamente ma che ci possiamo fare, Micron non vuole dare spiegazioni più decenti...
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Mitigazione...de che? Mettiamo che si riferisca alla parte CMOS più oberata di prima.
Micron dice di aver diviso in due le WL e che ciò consegue ad una duplicazione dei driver delle stringhe (che non so cosa siano). Guarda (a) di Figura 8: quella è teoricamente una classica NAND flash 3D (anche se ora dice che nei modelli recenti le WL sono divise a metà...). Le WL sono intere e quella "cosa" a destra verde chiaro è appunto il driver delle stringhe. (b) è una classica NAND flash 3D ma con le WL tagliate. Se noti, in mezzo alla figura ci sono i due driver delle stringhe. Visto che hanno tagliato le WL in due hanno dovuto mettere due driver per ogni blocco di WL tagliato: i driver si sono effettivamente duplicati.
Questo, quindi, penso che sia un problema da mitigare e l'hanno risolto "collegando" i due blocchi di WL tagliati tramite delle scale bidirezionali e usando soltanto un driver di stringhe per entrambi i blocchi.
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Comunque per mitigare è stata applicata una maggiore condivisione, aumentando sottoblocchi dei blocchi... ma che razza di spiegazione è?!
Il funzionamento è imperscrutabile (ma si parla delle parte CMOS o gestionale della Nand) e con l'effetto di aumentare del carico dell'array e della corrente di funzionamento (che sinceramente non mi sembra una miglioria o un traguardo desiderabile) boh!
Questo è vero, la spiegazione è decisamente penosa. L'unica cosa che mi viene da pensare è che boh, per migliorare questi driver di stringhe abbiano aumentato il numero di sottoblocchi... magari così facendo c'è una maggiore condivisione e un uso inferiore di driver, non so.
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Continuando con l'ultimo pezzo:
La scala bidirezionale (SC) ha risolto il compromesso tra latenza di lettura, energia di lettura per bit ed efficienza dell'array, mostrato in Figura 8.

Ok, quindi la soluzione per ovviare a quanto detto (aumentare del carico dell'array e della corrente di funzionamento) è quello di usare per le nand una struttura SC... che non è mai stata usata da nessun altro!!

MMMh...no... la usano tutti i costruttori di nand 3D da 3 generazioni di 3D nand https://semiwiki.com/events/8116-tec...18-nand-flash/
La differenza con la solita architettura a scala è che questa delle G9 è bidirezionale e mi sembra che ha senso visto che spezzi in due le WL. Qui le WL non sono divise in due e non esistono scale bidirezionali.
Quote:
Originariamente inviato da @Liupen Guarda i messaggi
Ma ti sembra che possa portare dei vantaggi reali perchè io ricordo bene quando qualche anno fà anche Intel rapid storage doveva monitorare i dati e tenere traccia di tutto per poi dare un boost alle scritture quando servivano e che invece... zero, peggio c'era solo il rapid storage di Samsung.
No Liupen, io la vedo una tecnologia sbagliata e basta. Siamo abituati alla nostra fantastica (ed enorme) cache SLC e ora dev'esser tagliata per farsi occupare da un'altra cache meno performante e duratura... perché alla fine AWT non allunga nulla, taglia e basta.
Dalla recensione del 2600 di The SSD Review:
Quote:
Il bucket SLC ha la capacità più piccola, seguito da un bucket TLC più grande e infine dal bucket QLC più grande.
La teoria, però, è solitamente diversa dalla realtà quindi, come detto l'altra volta, aspettiamo qualche recensione prima di poter dire che sia controproducente o no come tecnica, ma non mi aspetto belle cose sicuramente.

EDIT: anche la WL di molibdeno al posto di tungsteno non è nulla di nuovo: https://www.kioxia.com/en-jp/rd/tech...topics-71.html.

Ultima modifica di Black (Wooden Law) : 01-07-2025 alle 10:08.
Black (Wooden Law) è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Intervista a Stop Killing Games: distruggere videogiochi è come bruciare la musica di Mozart Intervista a Stop Killing Games: distruggere vid...
Samsung Galaxy S25 Edge: il top di gamma ultrasottile e leggerissimo. La recensione Samsung Galaxy S25 Edge: il top di gamma ultraso...
HP Elitebook Ultra G1i 14 è il notebook compatto, potente e robusto HP Elitebook Ultra G1i 14 è il notebook c...
Microsoft Surface Pro 12 è il 2 in 1 più compatto e silenzioso Microsoft Surface Pro 12 è il 2 in 1 pi&u...
Recensione REDMAGIC Astra Gaming Tablet: che spettacolo di tablet! Recensione REDMAGIC Astra Gaming Tablet: che spe...
Top 7 Amazon Bestseller: GoPro MAX fa un...
Steam cambia volto: scopri la nuova orga...
Hai una AnkerMake? Potrebbe essere gi&ag...
Lanciato il razzo spaziale Vega-C VV27 c...
Facebook è la prima piattaforma p...
Il co-creatore di ChatGPT è diven...
Thales Alenia Space e ASI siglano un acc...
L'app UE per la verifica dell'età...
Dynatrace potenzia la propria piattaform...
iPhone 17 Pro con funzioni fotografiche ...
Un test senza precedenti: un'intera auto...
STMicroelectronics ha comprato il busine...
Soprese, quelle belle: GoPro MAX da 399€...
Ancora in offerta a 29€ o 59€: sono i FR...
Wolfenstein arriva su Amazon Prime: sar&...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 12:03.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v