Go Back   Hardware Upgrade Forum > Componenti Hardware > Periferiche di memorizzazione e controller > Periferiche di Memorizzazione - Discussioni generali

Garmin Forerunner 265 è sempre più un top di gamma
Garmin Forerunner 265 è sempre più un top di gamma
Il nuovo arrivato della gamma di smartwatch Garmin per la corsa ha un nome di fascia media ma caratteristiche al top, a partire dal nuovo schermo AMOLED che permette di assicurare una ottima visibilità in ogni condizione. Tutto questo porta ad un prezzo più elevato per un prodotto che è ormai un altro top di gamma
ASUS ROG Strix SCAR 17 (2023) G733, il notebook con Ryzen 9 7945HX e RTX 4090 colpisce nel segno
ASUS ROG Strix SCAR 17 (2023) G733, il notebook con Ryzen 9 7945HX e RTX 4090 colpisce nel segno
Al netto di una parte software in evoluzione, il notebook ASUS ROG Strix SCAR 17 (2023) G733 giunto in redazione, forte di una CPU Ryzen 9 7945HX e una GeForce RTX 4090 Laptop, si è dimostrato un notebook gaming decisamente potente, capace di assicurare prestazioni al vertice della categoria. Purtroppo, come tale, si tratta di un portatile per pochi.
Dead Island 2: dopo nove anni poteva andare meglio, ma anche molto peggio. La recensione
Dead Island 2: dopo nove anni poteva andare meglio, ma anche molto peggio. La recensione
Dopo quasi nove anni dal suo annuncio, abbiamo avuto modo di provare Dead Island 2, nuova iterazione del survival horror che tende a non prendersi troppo sul serio. Il titolo mantiene la tradizione e, quindi, tutti gli aspetti che caratterizzano il predecessore senza osare troppo. Le novità non mancano, seppur non troppo incisive, rappresentando più un perfezionamento del primo capitolo che un vero e proprio nuovo gioco della saga.
Tutti gli articoli Tutte le news

Forum Jump
Reply
 
Thread Tools
Old 19-07-2008, 16:26   #21
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by DVD_QTDVS View Post
alla faccia di chi diceva, il nuovo è meglio
In che senso?

Quote:
Originally Posted by DVD_QTDVS View Post
La verità è che le normali ddr e ddr2 sono delle memorie da videogame
Recentemente l'ho pensato pure io. In quel caso la corruzione di un bit è una cosa irrisoria.

Quote:
Originally Posted by DVD_QTDVS View Post
Prima di tutto è necessario controllare la Ram con memtest86,
senza overclock, xchè l'overclock di bus può gengerare errori.
Non ricordo se ho fatto un Goldmemory test o un memtest86+, comunque le ram le ho testate, ho fatto anche 2 pass, tutto ok.
Sono delle OCZ DDR2-800 CL4, per cui le ho settate manualmente a 4-4-4-15, come dichiara il produttore. Di default erano viste come CL5 mi pare.
Non penso che questo possa essere considerato overclock, e non penso che c'entri molto.

Quote:
Originally Posted by DVD_QTDVS View Post
Se la ram è ok si passa ad uno scan dei settori dell' hard disk con HdTune,
e sarebbe pure opportuno controllare i parametri smart.
Questo controllo si può eseguire pure con le Seatools, preferibilmente a disco vuoto.
Cambiando il controller che gestiva il disco quando ha dato gli errori, al primo colpo non ha avuto più errori. Quindi secondo me era proprio colpa del controller schifoso, e purtroppo ce ne sono in giro mooolti di controller schifosi. Per mia esperienza, i controller cinesi da 4 soldi fanno schifo (corrompono i file), e non solo quelli (vedi l'unico controller IDE su PCI che ho provato). Io cerco di tenermi alla larga quanto più possibile da controller che non siano quelli del chipset.
Non ricordo se ho fatto un test con HD Tune, probabilmente l'avrò considerato superfluo.

Quote:
Originally Posted by DVD_QTDVS View Post
Poi c'è da considerare il fatto che il sistema NTSF comprime alcuni file o parti di file,
e questo è molto pericoloso x l'integrità dei dati
Ma io so che questa cosa la fa sui file di sistema, e non sui dati, a meno di non dirglielo specificatamente.

Quote:
Originally Posted by DVD_QTDVS View Post
Per i file corrotti io proverei a fare un confronto bit a bit per vedere quali parti
risultano diverse, se pochi bit oppure interi cluster.
Io IPOTIZZO che fossero pochi bit, ma come si fa un controllo del genere? Il confronto bit a bit lo si fa con gli hash, ma se l'hash è diverso, effettivamente dall'hash non si capisce se è differenze 1 solo bit o 1000.

Quote:
Originally Posted by DVD_QTDVS View Post
D'altra parte se i computer della classe workstation o mainframe, adottano
memoria ECC, e sistema operativo Unix con md5 ci sarà pure un perchè..
Ecco, io vorrei approfondire questo discorso dell'ECC. Perché se con l'ECC si ha la sicurezza matematica che un file venga copiato perfettamente (hash corretto) o che quando c'è un'errore mi venga in qualche modo segnalato, io cambio la scheda madre e la ram, che ho appena preso nuove da qualche settimana, e monto un sistema ECC! Sempre su Windows però.
E pensare che la "vecchia" 939 che ho tolto da poco aveva il supporto all'ECC!
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!

Last edited by havanalocobandicoot : 19-07-2008 at 18:46.
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 16:59   #22
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
teracopy è quello che fa per te...ti permette di confrontare gli hash però funziona solo se fai la copia di un file non se lo sposti...attualmente io ho la versione 1.22 ma hanno fatto la 2.0 beta 3...non so se va bene

http://www.codesector.com/teracopy.php
lupin87 is offline   Reply With Quote
Old 19-07-2008, 17:30   #23
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by lupin87 View Post
teracopy è quello che fa per te...ti permette di confrontare gli hash però funziona solo se fai la copia di un file non se lo sposti...attualmente io ho la versione 1.22 ma hanno fatto la 2.0 beta 3...non so se va bene

http://www.codesector.com/teracopy.php
Finora quando ho trasferito enormi quantità di dati ho usato CD Check e/o confrontato gli hash manualmente oppure con HashTab.
TeraCopy lo sto provando da qualche giorno, promette cose interessanti, come la velocizzazione della copia (sembrerebbe strano, dato che se il transfer rate è quello, non vedo come lo si possa aumentare) ma non ho ancora capito come funziona esattamente il discorso del buffer, e perché quando copia da un hard disk ad un altro lo setta a 256 kB mentre all'interno dello stesso hard disk a 1 MB.
Variando il buffer, la copia avviene effettivamente in maniera più veloce, ma non so fino a che punto è affidabile variare la dimensione del buffer (esempio: e se si dà un buffer superiore a quello che ha il disco??).

Il controllo CRC dovrebbe sì farlo, ma occorre farlo ogni volta manualmente.
Inoltre ho ancora delle perplessità circa la bontà del suo funzionamento. Vediamo perché.

Recentemente ho copiato un file RAR con TeraCopy. Sarà stato qualche centinaio di MB. Beh, la copia del file aveva i cluster occupati fino all'orlo, anche se il file veniva estratto bene.
Cluster occupati fino all'orlo nel senso che, se per esempio il file originale era:
143.411.268 byte con spazio su disco 143.413.248 byte

...la copia del file era:
143.413.248 byte con spazio su disco 143.413.248 byte.

In rosso il valore che non mi sarei aspettato dalla copia. Non mi sono segnato i valori reali ma il concetto è questo.

Comunque Winrar l'ha estratto bene e dava la stessa dimensione del file (da Winrar: Utilità -> Informazioni).

Inoltre, quando sta copiando un file e lo si interrompe, non cancella il file che stava copiando (come fa Windows) ma lo lascia incompleto: occuperà di meno. Ora, questa sembra una cosa buona, e di fatti per certi versi lo è, anche se errori come quello riportato sopra mi portano a non guardare molto di buon occhio questo programma e la sua copia bit per bit.
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!

Last edited by havanalocobandicoot : 19-07-2008 at 17:37.
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 17:52   #24
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by havanalocobandicoot View Post
Finora quando ho trasferito enormi quantità di dati ho usato CD Check e/o confrontato gli hash manualmente oppure con HashTab.
TeraCopy lo sto provando da qualche giorno, promette cose interessanti, come la velocizzazione della copia (sembrerebbe strano, dato che se il transfer rate è quello, non vedo come lo si possa aumentare) ma non ho ancora capito come funziona esattamente il discorso del buffer, e perché quando copia da un hard disk ad un altro lo setta a 256 kB mentre all'interno dello stesso hard disk a 1 MB.
Variando il buffer, la copia avviene effettivamente in maniera più veloce, ma non so fino a che punto è affidabile variare la dimensione del buffer (esempio: e se si dà un buffer superiore a quello che ha il disco??).

Il controllo CRC dovrebbe sì farlo, ma occorre farlo ogni volta manualmente.
Inoltre ho ancora delle perplessità circa la bontà del suo funzionamento. Vediamo perché.

Recentemente ho copiato un file RAR con TeraCopy. Sarà stato qualche centinaio di MB. Beh, la copia del file aveva i cluster occupati fino all'orlo, anche se il file veniva estratto bene.
Cluster occupati fino all'orlo nel senso che, se per esempio il file originale era:
143.411.268 byte con spazio su disco 143.413.248 byte

...la copia del file era:
143.413.248 byte con spazio su disco 143.413.248 byte.

In rosso il valore che non mi sarei aspettato dalla copia. Non mi sono segnato i valori reali ma il concetto è questo.

Comunque Winrar l'ha estratto bene e dava la stessa dimensione del file (da Winrar: Utilità -> Informazioni).

Inoltre, quando sta copiando un file e lo si interrompe, non cancella il file che stava copiando (come fa Windows) ma lo lascia incompleto: occuperà di meno. Ora, questa sembra una cosa buona, e di fatti per certi versi lo è, anche se errori come quello riportato sopra mi portano a non guardare molto di buon occhio questo programma e la sua copia bit per bit.
per quanto riguarda il discorso del buffer questo va settato in base alla quantità dei dati che riesci a trasferire dalla periferica iniziale...cioè,ieri stavo copiando un divx da cd ad hdd e il buffer stava settato a 1 megabyte,però vidi che la velocità di trasferimento era pari a 4 megabyte al secondo e quindi settai il buffer a 4 megabyte..il buffer,è una memoria tampone e settandoil buffer a 4 megabyte/secondo vuol dire che ogni secondo il buffer si svuoterà e si riempirà di nuovo di 4 megabyte...se invece assegnavo al buffer una dimensione più piccola accadeva che non riuscivo a sfruttare pienamente l' ampiezza di trasferimento del supporto ottico in quanto ogni secondo si doveva svuotare e doveva "interrompere" il trasferimento dal masterizzatore,se invece imposto un valore alto il buffer ci mette molto a riempirsi però ci sono meno interruzioni del caso precedente...non so se settare il buffer maggiore o uguale allo spazio di trasferimento sia la stessa cosa,una cosa è certa:buffer troppo piccoli non conviene.quanto alla differenza tra dimensioni e dimensioni su disco,questo è un discorso che devo ancora approfondire meglio,ma se gli hash tra i 2 file sono uguali non credo ci siano problemi

qaunto all' affidabilità cosa mi consiglieresti in alternativa a teracopy pro?
lupin87 is offline   Reply With Quote
Old 19-07-2008, 18:13   #25
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by lupin87 View Post
per quanto riguarda il discorso del buffer questo va settato in base alla quantità dei dati che riesci a trasferire dalla periferica iniziale...cioè,ieri stavo copiando un divx da cd ad hdd e il buffer stava settato a 1 megabyte,però vidi che la velocità di trasferimento era pari a 4 megabyte al secondo e quindi settai il buffer a 4 megabyte..il buffer,è una memoria tampone e settandoil buffer a 4 megabyte/secondo vuol dire che ogni secondo il buffer si svuoterà e si riempirà di nuovo di 4 megabyte...se invece assegnavo al buffer una dimensione più piccola accadeva che non riuscivo a sfruttare pienamente l' ampiezza di trasferimento del supporto ottico in quanto ogni secondo si doveva svuotare e doveva "interrompere" il trasferimento dal masterizzatore,se invece imposto un valore alto il buffer ci mette molto a riempirsi però ci sono meno interruzioni del caso precedente...non so se settare il buffer maggiore o uguale allo spazio di trasferimento sia la stessa cosa,una cosa è certa:buffer troppo piccoli non conviene.
Il fatto che la velocità di trasferimento in quel momento fosse di 4 MB/s non significa che occorre settare il buffer a 4 MB. Non vedo il nesso.
Se imposto il buffer ad una dimensione superiore rispetto al buffer fisico del disco non è male?

Quote:
Originally Posted by lupin87 View Post
quanto alla differenza tra dimensioni e dimensioni su disco,questo è un discorso che devo ancora approfondire meglio,ma se gli hash tra i 2 file sono uguali non credo ci siano problemi
L'hash era diverso.
SECONDO ME TeraCopy ha "tagliato male" il file, cioè ha scritto il file bene (o almeno lo spero), e poi ha riempito con non-so-cosa la parte vuota rimanente dei cluster occupati.

Quote:
Originally Posted by lupin87 View Post
qaunto all' affidabilità cosa mi consiglieresti in alternativa a teracopy pro?
Non saprei, ho provato solo quello.
Ah, tu hai provato la versione pro? Ha dei vantaggi rispetto alla versione normale?
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!

Last edited by havanalocobandicoot : 19-07-2008 at 18:17.
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 18:19   #26
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by havanalocobandicoot View Post
Il fatto che la velocità di trasferimento in quel momento fosse di 4 MB/s non significa che occorre settare il buffer a 4 MB. Non vedo il nesso.
Se imposto il buffer ad una dimensione superiore rispetto al buffer fisico del disco non è male?


L'hash era diverso.
SECONDO ME TeraCopy ha "tagliato male" il file, cioè ha scritto il file bene, e poi ha riempito con non-so-cosa la parte vuota dei cluster occupati.


Non saprei, ho provato solo quello.
Ah, tu hai provato la versione pro? Ha dei vantaggi rispetto alla versione normale?
perchè è male?

hai provato per caso la versione beta?
sicuro che anche il tuo hdd sia integro?una scansione con hdtune non fa mai male...la copia è avvenuta sullo stesso disco o su dischi diversi?

si..sul sito penso ci sia la tabella con le features...
lupin87 is offline   Reply With Quote
Old 19-07-2008, 18:36   #27
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by lupin87 View Post
perchè è male?

hai provato per caso la versione beta?
sicuro che anche il tuo hdd sia integro?una scansione con hdtune non fa mai male...la copia è avvenuta sullo stesso disco o su dischi diversi?
Potrebbe essere male perché il buffer è per esempio 16 MB, e io gli dico di usare un buffer di 20 MB: come fa se l'hard disk ha meno buffer?

Se posso, evito sempre le versioni beta. Ho usato la 1.22.

Non penso proprio che l'hard disk abbia problemi. Non me ne ha mai dati, e HD Tune dice che è tutto ok. E poi ho ripetuto l'operazione e l'ha fatta bene se non ricordo male.
Ho fatto la copia da un hard disk ad un altro.
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 18:50   #28
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by havanalocobandicoot View Post
Potrebbe essere male perché il buffer è per esempio 16 MB, e io gli dico di usare un buffer di 20 MB: come fa se l'hard disk ha meno buffer?

Se posso, evito sempre le versioni beta. Ho usato la 1.22.

Non penso proprio che l'hard disk abbia problemi. Non me ne ha mai dati, e HD Tune dice che è tutto ok. E poi ho ripetuto l'operazione e l'ha fatta bene se non ricordo male.
Ho fatto la copia da un hard disk ad un altro.
mi sa che non conviene perchè per caricare un buffer di 20 mega ha bisogno di 2 secondi:1 secondo per i primi 16 e un altro secondo per i restanti 4..hai ragione

stessa dimensione dei cluster tra un hdd e l' altro?
lupin87 is offline   Reply With Quote
Old 19-07-2008, 18:57   #29
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by lupin87 View Post
mi sa che non conviene perchè per caricare un buffer di 20 mega ha bisogno di 2 secondi:1 secondo per i primi 16 e un altro secondo per i restanti 4..hai ragione
A parte il fatto se convenga o meno... il mio dubbio è se può dare problemi o meno.
Ragionare in termini di secondi è comunque sbagliato: un trasferimento di 4 MB a 4 MB/s avviene in un secondo, ma un trasferimento di 4 MB a 3.90 MB/s avviene in 1.03 secondi.

Quote:
Originally Posted by lupin87 View Post
stessa dimensione dei cluster tra un hdd e l' altro?
Sì, entrambe le partizioni degli hard disk a 4K.
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 19:03   #30
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by havanalocobandicoot View Post
A parte il fatto se convenga o meno... il mio dubbio è se può dare problemi o meno.
Ragionare in termini di secondi è comunque sbagliato: un trasferimento di 4 MB a 4 MB/s avviene in un secondo, ma un trasferimento di 4 MB a 3.90 MB/s avviene in 1.03 secondi.


Sì, entrambe le partizioni degli hard disk a 4K.
non credo possa dare problemi comunque,secondo me,la soluzione migliore da adottare è quelal di settare la velocità del buffer uguale alla velocità di trasmissione dati della perferica di lettura...ogni 4 megabyte letti,4megabyte copiati senza evitare intasamenti di vario genere.

da dove l'hai vista la dimensione dei cluster?
lupin87 is offline   Reply With Quote
Old 19-07-2008, 19:43   #31
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by lupin87 View Post
da dove l'hai vista la dimensione dei cluster?
La puoi vedere con Partition Magic, oppure, empiricamente, dalla dimensione che un file da 1 byte (un documento di testo con all'interno 1 solo carattere) occupa su disco: quella è la dimensione del cluster, dato che il file, anche se pesa 1 byte, utilizza tutto il cluster, e cioè 4 kB. Questo perché in un cluster è possibile allocare un solo file.
Un file da 9 kB occuperà per esempio 3 cluster: i primi due saranno pieni, mentre il terzo avrà 3 kB sprecati. Su disco occuperà quindi 12 kB.
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!

Last edited by havanalocobandicoot : 19-07-2008 at 19:49.
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 19:49   #32
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by havanalocobandicoot View Post
La puoi vedere con Partition Magic, oppure, empiricamente, dalla dimensione che un file da 1 byte (un documento di testo con all'interno 1 solo carattere) occupa su disco: quella è la dimensione del cluster, dato che il file, anche se pesa 1 byte, utilizza tutto il cluster, e cioè 4 kB. Questo perché in un cluster è possibile allocare un solo file.
Un file da 9 kB occuperà per esempio 3 cluster: i primi due saranno pieni, mentre il terzo avrà 3 kB sprecati.
quindi,quando vado nelle proprietà,dimensioni sta a rappresentare le dimensioni del file mentre dimensioni su disco sta a rappresentare le dimensioni in base ai cluster...la partizione d quando la formattai come dimensione misi 512 byte...adesso posso trasformare la partizione C in cluster da 512 anzichè 4k?
lupin87 is offline   Reply With Quote
Old 19-07-2008, 19:57   #33
havanalocobandicoot
Senior Member
 
havanalocobandicoot's Avatar
 
Join Date: Jun 2005
Posts: 4,054
Quote:
Originally Posted by lupin87 View Post
quindi,quando vado nelle proprietà,dimensioni sta a rappresentare le dimensioni del file mentre dimensioni su disco sta a rappresentare le dimensioni in base ai cluster...la partizione d quando la formattai come dimensione misi 512 byte...adesso posso trasformare la partizione C in cluster da 512 anzichè 4k?
Siamo andati fuori tema. E' meglio aprire un'altra discussione se vuoi approfondire ulteriormente.
Comunque in teoria è possibile cambiare la dimensione dei cluster con Partition Magic ad esempio. Però se non ce n'è stretta necessità io non lo farei. Operare con la tabella di allocazione file è sempre un'operazione da fare con accortezza.
Tieni presente inoltre che avere una frammentazione eccessiva non è nemmeno buono, per le prestazioni del sistema. Di solito io uso il 4K, considerato un buon compromesso.
__________________
>>>>> Benchmark di velocità in lettura di tutte le periferiche di memorizzazione <<<<<
OCCHIO A VISTA E A WINDOWS 7! - HANNO DECISO DI NON FIDARSI DI TE! GUARDA IL VIDEO
Uno dei difetti dell'open source è la troppa libertà, e, ad oggi, il decentramento delle energie. El pueblo unido jamás será vencido!
havanalocobandicoot is offline   Reply With Quote
Old 19-07-2008, 20:22   #34
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by havanalocobandicoot View Post
Siamo andati fuori tema. E' meglio aprire un'altra discussione se vuoi approfondire ulteriormente.
Comunque in teoria è possibile cambiare la dimensione dei cluster con Partition Magic ad esempio. Però se non ce n'è stretta necessità io non lo farei. Operare con la tabella di allocazione file è sempre un'operazione da fare con accortezza.
Tieni presente inoltre che avere una frammentazione eccessiva non è nemmeno buono, per le prestazioni del sistema. Di solito io uso il 4K, considerato un buon compromesso.
ok era solo questa risposta che mi interessava,non vale la pena aprire un altra discussione...se trovi un programma più affidabile di teracopy avvisami
lupin87 is offline   Reply With Quote
Old 16-12-2008, 14:47   #35
emergo
Senior Member
 
Join Date: Jan 2007
Posts: 431
Quote:
Originally Posted by lupin87 View Post
ok era solo questa risposta che mi interessava,non vale la pena aprire un altra discussione...se trovi un programma più affidabile di teracopy avvisami
Alternative a TeraCopy ce ne sono eccome:
CopyHandler
FastCopy
FFCopy
SuperCopier
e non da ultimo (anzi forse il mio preferito) KillCopy

Da tenere inoltre in considerazione Unstoppable Copier, specifico per la copia di files provenienti da supporti danneggiati (come CD o DVD).

Infine ci sono soluzioni più complete, i cosiddetti File Manager che consentono anche molte altre funzioni a parte quella della copia o spastamento, come rinominare, dividere, unire, cancellare, gestire files e cartelle etc... Fra questi nel campo freeware troviamo FreeCommander, che è abbastanza semplice, ma soprattutto xplorer2 lite, che è la versione ridotta (e gratuita per uso personale) di un programma shareware di altissima qualità e con maggiori funzionalità (chiamato xplorer²); nel campo shareware ci sono inoltre WinNC e Total Commander.

A voi la scelta

Last edited by emergo : 16-12-2008 at 14:50.
emergo is offline   Reply With Quote
Old 16-12-2008, 16:00   #36
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by emergo View Post
Alternative a TeraCopy ce ne sono eccome:
CopyHandler
FastCopy
FFCopy
SuperCopier
e non da ultimo (anzi forse il mio preferito) KillCopy

Da tenere inoltre in considerazione Unstoppable Copier, specifico per la copia di files provenienti da supporti danneggiati (come CD o DVD).

Infine ci sono soluzioni più complete, i cosiddetti File Manager che consentono anche molte altre funzioni a parte quella della copia o spastamento, come rinominare, dividere, unire, cancellare, gestire files e cartelle etc... Fra questi nel campo freeware troviamo FreeCommander, che è abbastanza semplice, ma soprattutto xplorer2 lite, che è la versione ridotta (e gratuita per uso personale) di un programma shareware di altissima qualità e con maggiori funzionalità (chiamato xplorer²); nel campo shareware ci sono inoltre WinNC e Total Commander.

A voi la scelta
qual' è il migliore?ti permettono tutti di fare il controllo crc32 tra il file sorgente e quello destinatario per assicurarmi che la copia sia riuscita perfettamente?
lupin87 is offline   Reply With Quote
Old 16-12-2008, 16:49   #37
emergo
Senior Member
 
Join Date: Jan 2007
Posts: 431
Quote:
Originally Posted by lupin87 View Post
qual' è il migliore?ti permettono tutti di fare il controllo crc32 tra il file sorgente e quello destinatario per assicurarmi che la copia sia riuscita perfettamente?
CIAO, per il controllo tra il file sorgente e quello destinatario ti consiglio FastCopy, che tra le sue opzioni ne ha una chiamata 'Verify': "Verifying written files by MD5(or SHA-1. If you want to use SHA-1, write [main] Using_MD5=0 in fastcopy.ini)";
oppure puoi provare quello che preferisco io, KillCopy, che tra le sue opzioni ne ha una chiamata 'Enable verifycation': "This opions enables additional copy verification, this slows down copy process up to 2 times but this can help when files transferred with errors without it, caused for example by bad connection to remote computer. Recommended to use high-speed mode with this option."
emergo is offline   Reply With Quote
Old 16-12-2008, 16:55   #38
lupin87
Bannato
 
Join Date: May 2007
Location: Bari
Posts: 4,678
Quote:
Originally Posted by emergo View Post
CIAO, per il controllo tra il file sorgente e quello destinatario ti consiglio FastCopy, che tra le sue opzioni ne ha una chiamata 'Verify': "Verifying written files by MD5(or SHA-1. If you want to use SHA-1, write [main] Using_MD5=0 in fastcopy.ini)";
oppure puoi provare quello che preferisco io, KillCopy, che tra le sue opzioni ne ha una chiamata 'Enable verifycation': "This opions enables additional copy verification, this slows down copy process up to 2 times but this can help when files transferred with errors without it, caused for example by bad connection to remote computer. Recommended to use high-speed mode with this option."
ok grazie
lupin87 is offline   Reply With Quote
Old 16-12-2008, 17:04   #39
emergo
Senior Member
 
Join Date: Jan 2007
Posts: 431
Quote:
Originally Posted by lupin87 View Post
ok grazie
Pensa che tempo fà feci la prova a copiare con TeraCopy dal mio HD interno una cartella di alcune decine di GB verso un HD esterno USB e ci impiegò 2 ore; KillCopy invece mi ha copiato la stessa cartella in 40 minuti!
emergo is offline   Reply With Quote
Old 16-12-2008, 17:20   #40
CRL
Senior Member
 
CRL's Avatar
 
Join Date: Jun 2004
Location: London, UK
Posts: 10,694
emergo grazie mille, informazioni molto utili.

- CRL -
__________________

"non è compito del mod dare una mano di bianco sul grigio della vita" [cit.]
CRL is offline   Reply With Quote
 Reply


Garmin Forerunner 265 è sempre più un top di gamma Garmin Forerunner 265 è sempre più...
ASUS ROG Strix SCAR 17 (2023) G733, il notebook con Ryzen 9 7945HX e RTX 4090 colpisce nel segno ASUS ROG Strix SCAR 17 (2023) G733, il notebook ...
Dead Island 2: dopo nove anni poteva andare meglio, ma anche molto peggio. La recensione Dead Island 2: dopo nove anni poteva andare megl...
Recensione MSI RTX 4070 Gaming X Trio, il grande dissipatore tiene GPU e memoria al fresco Recensione MSI RTX 4070 Gaming X Trio, il grande...
Google Pixel 7a: migliora e fa centro ancora una volta! La recensione Google Pixel 7a: migliora e fa centro ancora una...
Macron corteggia Musk: la prossima Gigaf...
Zeekr, fra i 3 maggiori produttori EV pr...
Con MultiCloud Link Aruba estende le inf...
Amazon utilizzerà l'IA in stile C...
Tears of the Kingdom: carri armati, mech...
Mountain Makalu Max: nuovo mouse gaming ...
Microsoft Surface Laptop Studio a un pre...
Samsung Galaxy Z Fold 5 e Z Flip 5: c'&e...
CD Projekt Red: ondata di licenziamenti ...
Vodafone taglierà 11000 posti di ...
LegisLAB sceglie Logitech Rally Kit per ...
Microsoft regala uno Zune ancora imballa...
MediaTek, una GPU NVIDIA per il processo...
Diablo IV: ecco come sarà la storia (anc...
LG Display e Samsung Electronics: l'acco...
BurnAware Premium
BurnAware Free
Firefox 113
Dropbox
K-Lite Mega Codec Pack
K-Lite Codec Pack Full
K-Lite Codec Pack Standard
K-Lite Codec Pack Basic
Chromium
Firefox Portable
Thunderbird Portable
Process Lasso
Google Chrome Portable
K-Lite Codec Pack Update
NTLite
Tutti gli articoli Tutte le news Tutti i download


Posting Rules
You may not post new threads
You may not post replies
You may not post attachments
You may not edit your posts

vB code is On
Smilies are On
[IMG] code is On
HTML code is Off
Forum Jump


All times are GMT +1. The time now is 06:37.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2023, Jelsoft Enterprises Ltd.
Served by www3v