Memorie Phase Change Memory, IBM ci crede e lo dimostra
IBM ha mostrato come la tecnologia per l'archiviazione basata su memorie a cambiamento di fase non sia fantascienza, ma una realtà che potrebbe arrivare sul mercato entro pochi anni
di Alessandro Bordin pubblicata il 01 Luglio 2011, alle 09:49 nel canale StorageIBM
Dopo decenni di relativa calma nel mondo dello storage, con evoluzioni tecnologiche fondamentalmente incentrate sui dischi rotanti, abbiamo assistito negli ultimi anni alla diffusione di massa di unità di archiviazione basate sui moduli NAND Flash. Unità di questo tipo esistevano da molto tempo, è bene precisarlo, ma solo negli ultimi anni hanno trovato una collocazione nei listini alla portata di tutti, permettendo agli SSD, Solid State Drive, di aprire un nuovo filone consumer e enterprise in grado di garantire prestazioni molto più elevate rispetto alla tecnologia tradizionale.
In questi giorni però IBM ha messo le basi, sia in teoria che in pratica, a ciò che potremo vedere in commercio fra circa 5 anni, in grado di superare sotto ogni punto di vista la migliore unità SSD, sia in termini di prestazioni che di affidabilità. Stiamo parlando delle memorie PCM, Phase Change Memory, ovvero a cambiamento di fase.
Ne avevamo già parlato in passato, sottolineando come i primi prototipi fossero già presenti nei laboratori del lontano 2006. Evidentemente sono stati fatti molti passi avanti, poiché in questi giorni IBM ha presentato un prototipo credibile sotto ogni punto di vista, tanto da far ipotizzare una commercializzazione nell'arco di qualche anno.
Alla base della tecnologia PCM troviamo il cambiamento di fase del substrato, da cristallino ad amorfo e viceversa, il tutto indotto da un impulso elettrico. Ogni cella quindi può presentarsi in due fasi, associabili all'informazione 0 e 1 tanto cara al mondo digitale. I vantaggi di tale tecnologia, però, sono molteplici. La prima è che permette di realizzare unità teoricamente fino a 100 volte più veloci degli SSD, almeno secondo la fonte.
Alla base di questa velocità, oltre alla natura completamente differente del funzionamento rispetto ad altre tecnologie, troviamo la possibilità di scrivere nelle celle senza doverle prima cancellare, come avviene negli SSD. Ne consegue una velocità maggiore e anche una longevità impensabile attualmente per i chip NAND Flash: se per questi si parla di migliaia di riscritture, con le memorie PCM siamo nell'ordine di circa 5 milioni.
Le singole unità di memoria, inoltre, possono andare oltre rispetto all'archiviazione di un solo bit: gli ingegneri IBM hanno dimostrato che, differenziando alcuni parametri come ad esempio l'intensità dell'impulso elettrico, è possibile memorizzare le combinazioni "00", "01" 10" e "11", aprendo scenari sul futuro che fanno ben sperare. Lo scoglio più grande per la tecnologia PCM è sempre stata, in questi anni, il mantenere l'informazione anche in assenza di alimentazione. Un problema non da poco che ne ha rallentato lo sviluppo, almeno fino a oggi.
IBM ha realizzato un substrato su più livelli che permetterebbe di mantenere l'informazione anche in assenza di alimentazione, superando quindi il problema più complesso. Il prototipo mostrato, funzionante, è di fatto un chip CMOS con processo produttivo a 90nm, ospitante circa 200.000 celle. Da qui alla commercializzazione è solo questione di evoluzione tecnologica e allineamento dei prezzi verso una soglia "sostenibile" per il mercato. Un traguardo che IBM prevede di tagliare, come già detto in precedenza, entro circa 5 anni.
8 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - infoa noi tutti (privati ed imprese) interessa che queste tecnologie arrivino e siano alla nostra portata!
poi chi si vole prendere il Nobel faccia pure!
A parte questo, il fatto che non serve cancellare le celle prima di doverle riscrivere porta un vantaggio enorme.
L'aumento di prestazioni teorico di 100 volte poi ha dell'incredibile.
Quando potrebbe essere commercializzabile questa tecnologia?
è un salto di velocità enorme perchè con un solo "colpo di clock" ottieni 2 bit invece di 1, lo stesso in scrittura.
questo cambia anche quanto devi aspettare per avere un byte (o 8 byte per 64 bit) oppure quanto devi parallelizzare.
Inoltre le memorie appena lette non posso essere rilette o scritte subito ma si deve aspettare il refresh e altre "inezie"... con letture multiple...
Ci sono tantissimi aspetti positivi.
Quello che mi chiedo e a quanto si arriverà in capienza a questo punto.
Ho letto l'articolo originale di IBM, lavoro che ha presentato ad una conferenza, sinceramente non mi ha convinto al 100%.. Non mi è molto chiaro come funziona l'algoritmo da loro proposto e soprattutto, le figure dell'articolo mostravano distribuzioni in scala normale, quindi le code erano invisibili.. E il test su 200k celle è poco significativo. Rimane comunque il fatto che sia un articolo interessante, sicuramente da approfondire^^
P.S. Ricordo a tutti che il multilevel nelle flash è diventato relatà solo dopo anni di PRODUZIONE, qui siamo ancora agli inizi, ci vorrà ancora un po' di tempo ma io sono fiducioso
Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".