View Full Version : Kit memoria Corsair da 8 e 12 Gbytes per cpu Intel Core i7
Redazione di Hardware Upg
31-08-2009, 11:31
Link alla notizia: http://www.hwupgrade.it/news/memorie/kit-memoria-corsair-da-8-e-12-gbytes-per-cpu-intel-core-i7_29938.html
Corsair propone due kit memoria DDR3 1600 ottimizzati per processori Intel Nehalem, in kit dual e triple channel di elevata capacità
Click sul link per visualizzare la notizia.
La peppa.. 12 giga.. e che cacchio ci fai in uso domestico????
Resta il fatto che tra un anno massimo potranno esserci solo sistemi 64 bit.. e da quel che vedo sono ancora oggi piùuttosto snobbati e soggetti a problermucci con questo o quel software..
ma con queste Crysis gira? :D
Se me le potessi permettere...
AceGranger
31-08-2009, 11:55
La peppa.. 12 giga.. e che cacchio ci fai in uso domestico????
Resta il fatto che tra un anno massimo potranno esserci solo sistemi 64 bit.. e da quel che vedo sono ancora oggi piùuttosto snobbati e soggetti a problermucci con questo o quel software..
il fatto che non siano ECC non implica che vengano usate in ambito domestico.
forse appena uscito vista; per il resto mai avuti di questi problemi, anzi le versioni a 64 bit sono stati una manna dal cielo, piu stabili e piu veloci.
ma e-key ha queste memorie Corsair Dominator 6GB (2GB x 3) DDR3 1600 TR3X6G1600C7D che sono praticamente identiche...145€ i 3 banchi da 2gb..
sistemi 64 bit.. e da quel che vedo sono ancora oggi piùuttosto snobbati e soggetti a problermucci con questo o quel software..
non mi risulta
'Mazza..
Ho il pc dell'età della pietra! :oink:
il fatto che non siano ECC non implica che vengano usate in ambito domestico.
forse appena uscito vista; per il resto mai avuti di questi problemi, anzi le versioni a 64 bit sono stati una manna dal cielo, piu stabili e piu veloci.
Ma sicuramente verranno usate anche in ambito lavorativo!
Resta il fatto che tra un annetto sarà facile trovarli in comuni pc di casa!
Per la storia dei 64 non parlo del sistema in sè e dei driver ma dei vari software che poi ci si mette sopra!
Sinceramente a me qualche sbattimento lo hanno creato!
dtpancio
31-08-2009, 14:04
e da quel che vedo sono ancora oggi piùuttosto snobbati e soggetti a problermucci con questo o quel software..
neanche a me risulta..
ma con queste Crysis gira? :D
non l'han poi fatta la regola come per il "primo!"?
Slayers83
31-08-2009, 14:30
Ciao, volevo segnalare, per chi è in procinto di acquistare il kit da 6 banchi di queste memorie, che le Asus P6T (tutti i modelli) hanno una limitazione scritta anche nel mauale che dice che a causa di una limitazione intel l'installazione di banchi di ram con profilo XMP oppure a 1600 Mhz è supportata solo per 1 Dimm per canale, ovvero potete occupare al massimo 3 SLOT, quindi 6 DIMM di questa tipologia non sono installabili, se lo fate Vista vede 8 GB anzichè 12 e crasha inesorabilmente a casaccio.
Poi non so se c'è qualche escamotage per aggiustare questo problema.
hermanss
31-08-2009, 14:39
Al momento, chiaramente anche per il prezzo, sono riservate ai nababbi e a workstations.
Pressoché inutili in ambito desktop.
ma con queste Crysis gira?
Non è la ram che fa girare un gioco!
4GB sono + che sufficienti per Crysis, quindi gira allo stesso modo con + GB.
nudo_conlemani_inTasca
31-08-2009, 15:01
A mio avviso è importante che presentino queste memorie dalla grande capienza (anche se ho q.che riserbo sul livello prestazionale che decadrebbe, diretta conseguenza del n. di banchi di RAM indirizzabili dal controller e delle latenze più rilassate causa sincronismo tra i vari banchi installati sulla scheda madre).
Più sarà frequente l'uscita di Kit di RAM (DDR3) dalla grande capienza più i Sistemi diventeranno da 2-4GB entry level.
In generale è un bene, scendono ulteriormente i costi per i kit meno pompati e meno voluminosi in termini di GByte.
Tenere i timings a 8-8-8-24 non è davvero male, considerando che si popolano tutti e 6 gli Slots delle RAM su socket 1366LGA di Intel.
Tanta RAM serve solo in particolari applicazioni ad impiego Server Oriented e Database.
Dire che nei videogiochi portino benefici la vedo dura.. se non per una diminuzione del tempo di attesa di caricamento livelli e di swap dei titoli recenti che fanno molto accesso alla memoria centrale del PC.
Il rovescio della medaglia è che con PC sempre più pompati i programmatori skazzano il software e non lo ottimizzano più (chi programma in assembly è un grande, ma è un folle) tanto con quintali di ram e cpu a 10mila core pure Java gira che è una piuma... :asd:
blackshard
31-08-2009, 15:38
Sembrano dei Lego.
Mi domando chi, sano di mente, monterebbe ora una tale quantità di ram.
A me pare che le cose utili siano altre, e ancora non ci sono, oppure se ci sono costano troppo.
Gnubbolo
31-08-2009, 15:43
chi programma in assembly è un cretino, perchè i migliori compilatori fanno lo stesso lavoro dell'uomo se non meglio, ma chi straparla immagino abbia preso voti bassi all'uni..
...una volta diciamo negli anni '90, il mondo era ancora pieno di cretini che programmavano in assembly anche e soprattutto per la I.S.A x86.
E non tutti avevano preso "bassi voti all'uni".
Il voto in sé e per sé molto spesso non rispecchia la reale preparazione delle persone ma questa altra storia è.
All'epoca i compilatori anche i migliori avevano seri problemi nel cercare di mantenere a règime le pipeline "gemelle" U e V del processore Pentium Intel tanto per citarne uno.
Ed anche oggi per le routine critiche viene utilizzata l'opera amanuense di scrivere il codice a mano.
Non interi programmi ma porzioni di codice.
Grazie.
Marco71.
lucasantu
31-08-2009, 16:18
Commento # 10 di: Slayers83 pubblicato il 31 Agosto 2009, 15:30
Attenzione ai 6 banchi
Ciao, volevo segnalare, per chi è in procinto di acquistare il kit da 6 banchi di queste memorie, che le Asus P6T (tutti i modelli) hanno una limitazione scritta anche nel mauale che dice che a causa di una limitazione intel l'installazione di banchi di ram con profilo XMP oppure a 1600 Mhz è supportata solo per 1 Dimm per canale, ovvero potete occupare al massimo 3 SLOT, quindi 6 DIMM di questa tipologia non sono installabili, se lo fate Vista vede 8 GB anzichè 12 e crasha inesorabilmente a casaccio.
Poi non so se c'è qualche escamotage per aggiustare questo problema.
io ho 6 moduli ddr 1 di xms , uso il sistema in sign da gennaio , ma per ora non ho avuto problemi , forse vale solo per le xmp ?
perchè dite sempre le solite cavolate tipo che sono eccessive e che non servono. Si è vero che magari che al 99% della gente non serve ma sicuramente servono a qualcuno, e per questa gente questi prodotti sono una manna dal celo. Non dovete pensare solo all'uso che fate voi del vostro PC, al giorno d'oggi tutti anno il PC proprio perchè col PC si possono fare tante cose differenti tra loro e ognuno avrà esigenze differenti in base a quello che deve fare. E poi c'è il discorso della tecnologia che deve andare avanti, e anche il fatto che tra diciamo molti anni tutti i PC avranno tali quantità di RAM, e se non iniziano a produrla da oggi non la vremo a prezzi bassi. Per esempio oggi possiamo avere PC non 2GB di ram con pochissimi soldi, proprio perchè anni fa quando 2 GB erano un numero folle (tipo nel 2003) hanno iniziato a produrre kit costosissimi da 2GB quando i PC avevano 256MB o 512MB quelli potenti.
Altra cosa, forse è vero che al giorno d'oggi col fatto che abbiamo tanta ram, ALCUNI programmatori iniziano a non ottimizzare + e ad usare + ram del dovuto. Non dico che software che usano tanta ram sono software fatti male, ma che forse si iniziano a vedere software che per quello che fanno dovrebbero usare un po' meno ram.
terzo e ultimo, avere tanta ram fa diventare lungo il processo di ibernazione, x fortuna che stanno arrivando gli SSD che ci toglieranno questo problema, al giorno d'oggi ibernare un PC con 4 o 8 GB di ram non è velocissimo figuriamoci 12. Io sul mio fisso che ho da 1 anno circa, ho 8GB di ram e raid0 con 4 HD, e una partizione apposita per l'ibernazione all'inizio degli HD, e con debian linux(ben personalizzato [almeno nelle cose che mi interessano è mi sono sbattuto a imparare]) anche raggiungendo velocità sequenziali tra i 250 e 300 MB/s quando ho occupati + di 6 GB ci metto + di 20 secondi, e ripeto raid0 di 4 hd Western Digital 7200rpm da 500 GB con la partizione apposita fatta dai primi 2.5 GB dei dischi(10GB totale). Una soluzione che ho trovato è utilizzare un sw per l'ibernazione che permatte di fare scritture preventive.
Cmq a parte il mio fisso che uso per matematica, in generale ibernare un PC con + di 2 GB non è istantaneo, ma qui forse dovrebbero venire in contro i sw(fino a quando non avremo tutti SSD) facendo scritture preventive oppure facendo come il Mac che (non ne sono sicuro l'ho sentito) non scrive tutto sull'HD, ma una parte, e poi fa una specie di sospensione in ram(quella classica) e qui sembra spegnersi del tutto ma poi continua a scriver sull'hd per qualche altro secondo e poi spegne del tutto veramete. Cmq non so come funziona l'ibernazione sul mac ma è il migliore(qualcuno ne sa di +?, ho sentito anche un storia sul fatto che quando lo spegni in realtà non fa lo shuttdown ma una sospensione o ibernazione scusate sono super OT), anche su linux ci sono buoni sistemi ma se vuoi ottenere il top li devi architettare da te non usando la configurazione standard ma una + complessa con più software contemporaneamente (in stile unix che ogni sw fa un piccolo pezzo) in modo da usare insieme: partizione o file dedicato già allocato, scrittura preventiva, e usi combinato di sospensione in ram e in memoria di massa. scusate sono andato pesantemente OT
AceGranger
31-08-2009, 17:56
Beh se devi fare fotoritocco bello peso più ne hai e più sei contento, ad ogni modo la tecnologia non sta andando avanti, semplicemente ti vogliono rifilare 6 banchi di quelli di cui ne abbiamo in molti solo un paio nel case.
Sarebbe il caso che cominciasero a proporre dei moduli più grandi, ormai sono dei secoli che aspettiamo quelli da 4GB...
GIA !!!!!!!!!!!!!
I pochi in commercio costano un rene :cry: :cry: :cry: :cry: :cry:
e una partizione apposita per l'ibernazione all'inizio degli HD
scusa questo m'interessa perchè volevo fare una cosa simile. Io l'avrei fatta sulle tracce esterne perchè pensavo fossero le + veloci. C'è qualche motivo particolare per cui tu hai scelto la parte interne?
Forse non ho capito bene quello che hai scritto :)
scusate OT
Mister_K
01-09-2009, 00:00
scusa questo m'interessa perchè volevo fare una cosa simile. Io l'avrei fatta sulle tracce esterne perchè pensavo fossero le + veloci. C'è qualche motivo particolare per cui tu hai scelto la parte interne?
Forse non ho capito bene quello che hai scritto :)
scusate OT
Se non sbaglio le più interne sono più veloci, e non il contrario...
FINE OT
blackshard
01-09-2009, 00:25
Se non sbaglio le più interne sono più veloci, e non il contrario...
FINE OT
No sono le esterne le più veloci: a parità da velocità angolare, la velocità lineare è maggiore sul punto esterno perchè la distanza dal centro (il raggio :) ) è maggiore.
Nei dischi fissi si "inizia" dall'esterno (la parte più veloce), mentre nei dvd e nei cd si inizia dall'interno (la parte più lenta).
blackshard
01-09-2009, 00:31
chi programma in assembly è un cretino, perchè i migliori compilatori fanno lo stesso lavoro dell'uomo se non meglio, ma chi straparla immagino abbia preso voti bassi all'uni..
Mah, io dubito altamente che qualunque compilatore sappia fare meglio di un bravo programmatore assembly, soprattutto perchè ci sono tanti e tali "magheggi" che puoi fare per migliorare l'esecuzione che sarà possibile che un compilatore ottimizzi con tutti i trucchetti del caso solo quando avremo un computer degno della mente umana.
Poi se vuoi usare istruzioni SIMD e non vuoi fare le solite moltiplicazioni di matrici, allora lì è obbligatorio mettere mano all'asm.
dado2005
01-09-2009, 01:02
Ma per moduli da 4GB invece che da 2 dobbiamo aspettare le DDR7?No.
Samsung ha prodotto dei moduli di mem DDR3 Registrated da 16 GB per applicazioni server in tecnologia di integrazione da 50 nm.
Come al solito occorre solo portare pazienza ed aspettare.
REFERENCE:
Titolo: Samsung Ships First 16 GB DDR3
Date: March 19, 2009
Link: http://www.tomshardware.com/news/Samsung-16GB-DDR3,7323.html
SingWolf
01-09-2009, 01:14
Niente di speciale... fossero stati solo 3 banchi si... ma sempre la stessa minestra... :rolleyes:
Ale!
jepessen
01-09-2009, 07:38
Beh, se si parla di workstation e non di server, secondo me le memorie non ECC hanno il loro perchè, dato che comunque, pur trattandosi di lavoro, non si parla di dati 'così' creitici. Almeno rovinare dati a causa della memoria non è più probabile delle altre cause...
Faccio un paio di esempi in cui possono veramente servire, a mio avviso...
Sto facendo un modello 3D con 3DStudioMAX (e chissà quando potrò provare la versione 2010... Ma è un'altra storia)... Faccio il modello bello pesante (un umanoide fotorealistico, ad esempio), a questo punto devo lavorare con le texture, e mi apro un bel photoshop CS4. Già avere entrambi questi programmi aperti contemporaneamente (e con file complessi), richiede un quantitativo di memoria assolutamente non trascurabile, ed eviti pure lo swap... 12Gb qua servono un casino...
Altro esempio: Sto facendo un circuito elettronico con Altium Designer (di quelli complessi, non quelli hobbystici). Devo importare in Altium Designer il modello CAD dello strumento, per vedere se il circuito elettronico ci sta bene, se i fori del circuito corrispondono a quelli del supporto, e se le porte USB sono allineate con i rispettivi fori... Apro Solidworks, che è un gran bel programma, ma in quanto ad occupazione di memoria si può migliorare un pochettino, apro il file CAD, lo esporto e lo importo in Altium, il tutto senza chiudere niente, sfruttando il pre-fetching che velocizza tutto (che tutti quanti pensano sia il male) e senza rallentamenti.. Orpo...
Ultimo esempio: Devo fare una simulazione di stress meccanico con COMSOL Multiphysics (che ancora devo capire perchè è in Java). Solo che nel modello meccanico ci sono alcuni fori filettati. Chi fa simulazione numerica, sa che modificare i fori filettati in fori semplici semplifica notevolmente il calcolo dal punto di vista della memoria pur restando accurato ma, se ho i miei bei 12Gb, me ne posso fregare, ed evitare di perdere tempo a semplificare il modello, aumentando quindi la mia produttività... Acchio...
Mi sembrano 3 esempi più che giustificabili, a mio avviso...
utente_medio_
01-09-2009, 10:23
No sono le esterne le più veloci: a parità da velocità angolare, la velocità lineare è maggiore sul punto esterno perchè la distanza dal centro (il raggio :) ) è maggiore.
Nei dischi fissi si "inizia" dall'esterno (la parte più veloce), mentre nei dvd e nei cd si inizia dall'interno (la parte più lenta).
negli hard disk come nei lettori cd si cerca di mantenere il flusso di dati costante, per questo nei lettori cd con il raggiungimento delle tracce esterne dove vi sono più dati, la velocita di rotazione aumnenta, (velocita lineare costante) ,
negli hard disk invece a parita di numero di giri dei piatti diminuisce la densità dei bit dalle tracce interne alle tracce esterne in questo modo il flusso di dati è omogeneo.(velocita angolare costante)
blackshard
01-09-2009, 15:08
negli hard disk come nei lettori cd si cerca di mantenere il flusso di dati costante, per questo nei lettori cd con il raggiungimento delle tracce esterne dove vi sono più dati, la velocita di rotazione aumnenta, (velocita lineare costante) ,
Ma dai... Casomai nelle zone esterne la velocità di rotazione diminuisce, se parliamo di strategia di lettura CLV (costant linear velocity) e aumenta nelle zone iniziali vicine al centro del disco. Questo accadeva con i lettori cd 4x e 8x, visto che dopo si è adottata la tecnica CAV.
Con la CAV invece (constant angular velocity) la velocità di rotazione è sempre uguale e il throughput cambia.
negli hard disk invece a parita di numero di giri dei piatti diminuisce la densità dei bit dalle tracce interne alle tracce esterne in questo modo il flusso di dati è omogeneo.(velocita angolare costante)
Ma dove? Guarda che qualsiasi bench di hard disk guardi la zona iniziale (che, lo ripeto, è quella più esterna, diversamente dai cd) ha un throughput quasi doppio rispetto alla zona finale (che è quella più interna)
ma con queste Crysis gira? :D
old :asd:
Beh se devi fare fotoritocco bello peso più ne hai e più sei contento, ad ogni modo la tecnologia non sta andando avanti, semplicemente ti vogliono rifilare 6 banchi di quelli di cui ne abbiamo in molti solo un paio nel case.
Sarebbe il caso che cominciasero a proporre dei moduli più grandi, ormai sono dei secoli che aspettiamo quelli da 4GB...
già..:stordita: concordo in pieno
Alla fine tornanto in topic, un kit come questo dovrebbe essere meglio di 2 kit.
In generale i produttori garantiscono le copppie e le triple(recentemente) da utilizzare. Facendo come esempio il caso di una piattaforma i7, se voglio 12GB di ram dovrei prendere 2 kit ciascuno da 3x2GB. Tornando al caso generale se occupo tutti gli slot o perdo il dualchannel(trialchannel) se la memoria è econonomica(per non dire pessima) ma nella maggiorparte dei casi semplicemete viene ridotta la latenza. Quando si occupano tutti gli slot la cosa cambia da mobo a mobo (soprattutto per mhc nel northbridge)perchè oltre al memory controller dipende da come è fatta la scheda e dal bios. Nel caso di mhc integrato nella CPU sono meno i fattori dipendenti daò costruttore della schdeda ma cmq ci sono. Fino ad oggi, ecluso i7 io sono riuscito ad utilizzare tutti i moduli di ram presenti su una mobo sia con intel che amd e vari chipset, facendo rimanere invariate le latenze solo utilizando memorie di qualità e non dico costose in assoluto, ma sicuramente + costose della media. Ma appunto la spesa è valsa la candela, perchè oltre al minimo decremento prestazionale dovuti alla latenza + alta, quello che conta è la stabilità su sessioni di lunghe ore, e chi utilizza tanta ram sicuramente lo fa per lavoro e non per altro.
Imho alla fine questo kit potrebbe avere un senso, dato che ti permette di non prendere 2 kit, e hai la certezza che è stato testato a fondo per far lavorare 6 moduli insieme, cmq rimane una cosa di nicchia nel senso che serve a una minortanza di utenze.
AceGranger
02-09-2009, 10:51
Alla fine tornanto in topic, un kit come questo dovrebbe essere meglio di 2 kit.
In generale i produttori garantiscono le copppie e le triple(recentemente) da utilizzare. Facendo come esempio il caso di una piattaforma i7, se voglio 12GB di ram dovrei prendere 2 kit ciascuno da 3x2GB. Tornando al caso generale se occupo tutti gli slot o perdo il dualchannel(trialchannel) se la memoria è econonomica(per non dire pessima) ma nella maggiorparte dei casi semplicemete viene ridotta la latenza. Quando si occupano tutti gli slot la cosa cambia da mobo a mobo (soprattutto per mhc nel northbridge)perchè oltre al memory controller dipende da come è fatta la scheda e dal bios. Nel caso di mhc integrato nella CPU sono meno i fattori dipendenti daò costruttore della schdeda ma cmq ci sono. Fino ad oggi, ecluso i7 io sono riuscito ad utilizzare tutti i moduli di ram presenti su una mobo sia con intel che amd e vari chipset, facendo rimanere invariate le latenze solo utilizando memorie di qualità e non dico costose in assoluto, ma sicuramente + costose della media. Ma appunto la spesa è valsa la candela, perchè oltre al minimo decremento prestazionale dovuti alla latenza + alta, quello che conta è la stabilità su sessioni di lunghe ore, e chi utilizza tanta ram sicuramente lo fa per lavoro e non per altro.
Imho alla fine questo kit potrebbe avere un senso, dato che ti permette di non prendere 2 kit, e hai la certezza che è stato testato a fondo per far lavorare 6 moduli insieme, cmq rimane una cosa di nicchia nel senso che serve a una minortanza di utenze.
è la stessa identica cosa praticamente... dai su, quando fanno i "kit" prendono banchi a caso che sforna la macchina e te le impacchettano. basta che le ram siano dello stesso modello e non ci sono problemi.
addirittura riesci anche a far andare 2 kit di marca diversa...
L'unico vantaggio è che essendo in kit da 6 di dovrebbe costare un filo meno
utente_medio_
02-09-2009, 15:09
Ma dai... Casomai nelle zone esterne la velocità di rotazione diminuisce, se parliamo di strategia di lettura CLV (costant linear velocity) e aumenta nelle zone iniziali vicine al centro del disco. Questo accadeva con i lettori cd 4x e 8x, visto che dopo si è adottata la tecnica CAV.
Con la CAV invece (constant angular velocity) la velocità di rotazione è sempre uguale e il throughput cambia.
Ma dove? Guarda che qualsiasi bench di hard disk guardi la zona iniziale (che, lo ripeto, è quella più esterna, diversamente dai cd) ha un throughput quasi doppio rispetto alla zona finale (che è quella più interna)
interessanti queste cose...hai qualche link dove io possa approfondire?? dopodiche andrò a strozzare il mio prof di sistemi operativi..dato che controllando sul libro è proprio come ho scritto io....
grazie.
blackshard
02-09-2009, 15:57
interessanti queste cose...hai qualche link dove io possa approfondire?? dopodiche andrò a strozzare il mio prof di sistemi operativi..dato che controllando sul libro è proprio come ho scritto io....
grazie.
Sul Silberschatz, Galvin, Gagne 6a edizione trovo:
"... il settore 0 è il primo settore della prima traccia sul cilindro più esterno; la corrispondenza prosegue ordinatamente lungo la prima traccia, quindi lungo le rimanenti traccie del primo cilindro, e così via di cilindro in cilindro dall'esterno verso l'interno ..."
Poi:
"... Nei mezzi che utilizzano la velocità lineare costante la densità di bit per traccia è uniforme. Più è lontana dal centro del disco, tanto è maggiore la lunghezza della traccia, tanto maggiore è il numero di settori che essa può contenere. ... Le tracce nell'area più esterna contengono tipicamente il 40 per cento in più di settori contenuti nelle tracce dell'area più interna. ..."
Poi in effetti dice:
"... la densità di bit decresce dalle tracce interne alle tracce più esterne per mantenere costante la quantità di dati che scorre sotto le testine. Questo metodo si usa nelle unità a disco magnetico ed è noto come velocità angolare costante."
Il punto è che non c'è nessun motivo per non avere una densità di bit per traccia costante ed utilizzare la modalità di lettura CAV. I cd/dvd utilizzano indipendentemente CAV o CLV a seconda della velocità di lettura (CLV a basse velocità, CAV ad alte velocità), eppure la densità di bit per traccia è costante.
I dischi fissi sono CAV ma la densità di bit per traccia è costante comunque e, difatti, nei test di laboratorio sui moderni dischi si evince il magico 40% circa di prestazioni in più nelle zone più esterne (quelle iniziali).
Questo è un benchmark di un western digital raptor:
http://images.anandtech.com/reviews/storage/2008/wd-velociraptor-launch/wd150hdtuneS.jpg
Questa è la scrittura su un dvd-r in modalità CAV:
http://gfx.cdfreaks.com/reviews/pioneer_dvr-215_review/image021.png
E questa è la scrittura su un dvd-rw in modalità CLV:
http://gfx.cdfreaks.com/reviews/pioneer_dvr-215_review/image023.png
Senza parlare poi delle modalità Z-CLV, P-CAV, CAA, ...
utente_medio_
03-09-2009, 10:16
Sul Silberschatz, Galvin, Gagne 6a edizione trovo:
"... il settore 0 è il primo settore della prima traccia sul cilindro più esterno; la corrispondenza prosegue ordinatamente lungo la prima traccia, quindi lungo le rimanenti traccie del primo cilindro, e così via di cilindro in cilindro dall'esterno verso l'interno ..."
Poi:
"... Nei mezzi che utilizzano la velocità lineare costante la densità di bit per traccia è uniforme. Più è lontana dal centro del disco, tanto è maggiore la lunghezza della traccia, tanto maggiore è il numero di settori che essa può contenere. ... Le tracce nell'area più esterna contengono tipicamente il 40 per cento in più di settori contenuti nelle tracce dell'area più interna. ..."
Poi in effetti dice:
"... la densità di bit decresce dalle tracce interne alle tracce più esterne per mantenere costante la quantità di dati che scorre sotto le testine. Questo metodo si usa nelle unità a disco magnetico ed è noto come velocità angolare costante."
Il punto è che non c'è nessun motivo per non avere una densità di bit per traccia costante ed utilizzare la modalità di lettura CAV. I cd/dvd utilizzano indipendentemente CAV o CLV a seconda della velocità di lettura (CLV a basse velocità, CAV ad alte velocità), eppure la densità di bit per traccia è costante.
I dischi fissi sono CAV ma la densità di bit per traccia è costante comunque e, difatti, nei test di laboratorio sui moderni dischi si evince il magico 40% circa di prestazioni in più nelle zone più esterne (quelle iniziali).
Questo è un benchmark di un western digital raptor:
Questa è la scrittura su un dvd-r in modalità CAV:
E questa è la scrittura su un dvd-rw in modalità CLV:
Senza parlare poi delle modalità Z-CLV, P-CAV, CAA, ...
ora è chiaro, ovviamente la velocità aumena al bordo del disco a parità di numero di giri, aumentando cosi la velocitae di lettura ma la duminuzione del numero di bit dalle tracce interne a quelle esterne a questo punto cosa comporta?? alla fine leggo piu velocemente ma meno bit quindi la stessa quantità di dati???? :confused:
blackshard
03-09-2009, 16:41
ora è chiaro, ovviamente la velocità aumena al bordo del disco a parità di numero di giri, aumentando cosi la velocitae di lettura ma la duminuzione del numero di bit dalle tracce interne a quelle esterne a questo punto cosa comporta?? alla fine leggo piu velocemente ma meno bit quindi la stessa quantità di dati???? :confused:
Se la densità di bit diminuisce, dall'interno verso l'esterno (per essere chiari, più bit per cm^2 all'interno, meno bit per cm^2 all'esterno), hai un bitrate costante pur utilizzando la modalità CAV. Questo è proprio il caso descritto dal silberschatz.
Siccome nei dischi magnetici e ottici moderni la densità di bit è costante su tutto il disco e la lettura/scrittura avvengono in modalità CAV, nelle tracce più esterne hai maggiore throughput poichè ci sono più settori per traccia rispetto all'interno.
La modalità CLV, che offrirebbe bitrate costante con densità di bit costante su tutto il disco, ormai è relegata a pochi ambiti, generalmente in alcune strategie di scrittura a bassa velocità dei dischi DVD e CD. Questo perchè non solo aumenta il seek time dal momento che la velocità del disco viene modificata a seconda di dove la testina debba leggere o scrivere, ma ad alte velocità (pensa ad un cd-rom letto a 40x) dovrebbe compensare con una rotazione estrema nel caso di accesso alle zone più interne!
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.