View Full Version : Cerco programma che scovi files duplicati
Ciao
sto facendo ordine negli hard disk.
mi servirebbe un programma che data una certa cartella e relative sottocartelle scovi e mi indichi i files e cartelle duplicati in giro per qulla cartella e sottocartelle, eventulmente dando anche la possibilità di analizzarle per data ultima modifica/accesso... se poi ha un piccolo file manager tipo commander che già li listi e permetta di cancellare quelli che si vuole sarebbe perfetto.
grazie mille per l'aiuto
ha *buntu 64 con sia KDE sia Gnome
http://www.linux-magazine.it/Trovare-file-duplicati.htm
Trovare file duplicati
Un metodo rapido per eliminare contenuti superflui
Quando lo spazio sull’hard disk scarseggia, la prima cosa da fare per recuperarne almeno un po’ è eliminare i file duplicati. Possiamo farlo, ad esempio, con fdupes (find duplicates). Basta aprire una shell ed eseguire fdupes directoryA directoryB. A questo punto, il programma cercherà i file presenti nella directory B e li confronterà con quelli presenti in A. Ogni file doppione verrà segnalato a video e identificato con il nome e il percorso completo. È anche possibile affinare la ricerca utilizzando alcune opzioni particolari come -r per cercare file duplicati all’interno delle sotto directory, oppure -s per controllare anche i link simbolici. L’opzione -z, invece, esclude dalla ricerca i file aventi dimensioni zero, mentre lo switch -d attiva la richiesta di cancellazione dei “doppioni” trovati. Il criterio con cui fdupes identifica i duplicati si basa sulle somme di controllo (MD5), quindi è pressoché infallibile. Attenzione, però, quando si usa l’opzione di rimozione per evitare di perdere dati importanti, il programma chiede sempre conferma prima di ogni cancellazione.
grazie
ma qualcosa di equivalente con una GUI c'è??
http://www.ossblog.it/post/3154/fslint-cerca-file-duplicati-in-linux
molto completo, grazie mille,
questo me lo devo studiare però,
l'altro l'ho già reso operativo.
grazie ancora .
è incredibile la quantità di roba duplicata che si accumula di backup in back up attraverso macchine e SO diversi in anni... si triplica tranquillamente la quantità di dati ...
più che perderci una settimana afar ordine, quasi converrebbe comperare un altro HD da 2TB...
solo che sta spirale viziosa bisogna interromperla il prima possibile...
:) :)
io non li ho mai provati...
ma non e' che impiega moltissimo tempo a scansionare tanti GB ?
si, ci mette'na vita... fra l'altro io i dischi dati in questo periodo di transizione ce l'ho tutti in ntfs (causa troppi passaggi dei dati frammentati su troppi sistemi operativi diversi su macchine diverse) .... una AGONIA ...
per dire: trasferimento di blocco da 80GB da partizione ntfs a altra partizione ntfs dello stesso disco velocità media 20MB/sec, carico della CPU 50% costante.
l'analisi di mezzo tera di dati con i due programmi succitati
per scovare doppioni: due ore circa (ho perso il conto esatto)
per questo ho detto che finirò in una settimana di far ordine ...
però... chi prima inizia...
vBulletin® v3.6.4, Copyright ©2000-2026, Jelsoft Enterprises Ltd.