PDA

View Full Version : DOWNLOAD FILE/CARTELLE DA SERVER


staedtlerp
28-07-2014, 15:34
Salve a tutti,
mi sono da poco iscritto al forum anche se l'ho parecchie volte utilizzato per consigli e soluzioni ad alcuni problemi problemi che incontravo...:D :D ..ma veniamo al dunque... ho un problema: vorrei scaricare sul mio pc il contenuto di un cartella online che sta online su un server Apache/ProXad (indirizzo: http://yvonet.florent.free.fr/). Sono parecchi giorni che ci provo cercando soluzioni ma nulla....riesco a scaricare e vedere tranquillamente il contenuto della cartella ed anche a scaricarne i file pdf contenuti al suo interno ma non riesco a trovare il modo di scaricare tutti i file, e quindi la cartella, in un sol colpo. La cartella è molto grande e contiene moltissimi file per cui è impensabile scaricarli uno alla volta!!:mc: :mc::confused: Vorrei sapere se esiste la possibilità di fare ciò, magari tramite software, tramite script o qualche altro modo....Vi ringrazio anticipatamente tutti e buona giornata :D :)

x_Master_x
28-07-2014, 16:32
Usa la commandline wget (http://sourceforge.net/projects/gnuwin32/files/wget/1.11.4-1/wget-1.11.4-1-bin.zip/download?use_mirror=freefr) con questi parametri:
-e robots=off --mirror --convert-links --no-parent --reject "index.html*" --random-wait --wait=3 --directory-prefix="C:\Percorso\Destinazione" http://sito.it

staedtlerp
29-07-2014, 13:59
Funziona!:D :D ... anche se ogni tanto mi da una serie di istruzioni che non capisco come questa:
Intestazione Last-modified mancante -- timestamp disattivati.
2014-07-29 13:14:22 (143 MB/s) - "/home/staedtlerp/Scrivania/Catia/yvonet.florent.free.fr/SERVEUR/COURS CATIA/CATIA Analysis/GPF_F/Student/index.html" salvato [1809]

Rimozione di /home/staedtlerp/Scrivania/Catia/yvonet.florent.free.fr/SERVEUR/COURS CATIA/CATIA Analysis/GPF_F/Student/index.html poiché deve essere rifiutato


non so cosa vuol dire...Cmq sta scaricando anche se in maniera piuttosto strana...Sembra andare per livelli anzichè per cartelle, nel senso che scarica prima tutte le sottocartelle che stanno allo stesso livello e poi va avanti. Non procede per cartelle, ovvero non scarica tutto il contenuto di una cartella compresi file e sottocartelle...è normale?....Davvero grazie mille:D :D

x_Master_x
29-07-2014, 14:16
L'output:

2014-07-29 13:14:22 (143 MB/s) etc. salvato
Rimozione di etc. poiché deve essere rifiutato


è dovuto a questa parte del comando che ho aggiunto:
--reject "index.html*"
Che serve per escludere una tipologia di file dal download, senza ti ritroveresti nelle cartelle-sottocartelle una serie infinita di file chiamati index.html + una serie alfanumerica di numeri e lettere.

Per quanto riguarda il "come scarica", scusami ma non ho capito cosa intendi con i "livelli", ho provato con una piccola cartella e tutti i file sono stati scaricati come nell'esatta struttura presente sul sito, non è quello l'importante oltre al fatto che tutti i file vengono scaricati correttamente? :D

Il mio consiglio è di imparare qualcosa da quella stringa postata ( usando il manuale (https://www.gnu.org/software/wget/manual/wget.html) di wget ) che potrebbe servirti in futuro per altro.

staedtlerp
29-07-2014, 14:27
No no sta scaricando tutto correttamente...la curiosità sul download è relativa solo al fatto che anzichè scaricare una cartella per volta con tutte le sottocartelle e i file contenuti va per livelli...mi spiego...mettiamo il caso abbiamo la cartella 1 che contiene le cartelle 2.1, 2.2 e 2.3 che a loro volta contengono altre cartelle che chiamiamo 3.1 e 3.2 per la 2.1, 3.3 3.4 per la 2.2 e 3.5, 3.6 per 2.3. Il software scarica prima la cartella 1, poi scarica le cartelle 2.1, 2.2 e 2.3 e infine passa alle 3.1, 3.2, 3.3, 3.4 ecc... Mi chiedevo come mai non scarica prima tutto il contenuto della 2.1 (compresi file e sottocartelle) poi tutto quella della 2.2 e così via...la mia è solo una curiosità legata al comando e al fatto di capirne le opzioni...:D :D ....tutto qui...:D :D :D :D
Grazie mille

x_Master_x
29-07-2014, 18:33
Sì ho capito cosa intendi ma non puoi paragonare la struttura di una cartella di Windows con quella di un sito web, quelle non sono effettivamente cartelle. Il programma processa i link in recursione ( recursione di cui si può scegliere la "profondità" ) nell'ordine in cui sono o da come vengono inviati dal sito web stesso ma come dicevo prima l'importante é il risultato, che scarichi DABC invece di ABCD non cambia assolutamente nulla ai fini della struttura finale che corrisponde esattamente a quella originale.

staedtlerp
29-07-2014, 19:04
Perfetto!...grazie mille:D :D sei stato chiarissimo....:cincin:...solo un'ultima curiosità...ma se volessi interrompere il download per riprenderlo domani o in un altro momento come dovrei fare?....dv utilizzare sempre lo stesso comando con qualche opzione in più? Grazie

x_Master_x
30-07-2014, 08:20
Se usi lo stesso comando riparti da zero riscaricando tutti i file e sovrascrivendoli a quelli attuali. Mi sbaglio oppure ti avevo detto di dare un'occhiata al manuale? :D
Ti do un piccolo aiuto, la parola magica da cercare è "clobber" che richiede il cambio di un parametro ( --mirror ) con un'altro ( -r )

staedtlerp
30-07-2014, 10:41
Hai ragione...è solo che a volte il manuale ufficiale richiede conoscenze approfondite che io non ho...:muro: ....cmq ho letto il comando clobber e la sintassi, salvo errori, dovrebbe essere questa:

wget -e robots=off -r --no-clobber --convert-links --no-parent --reject "index.html*" --random-wait --wait=3 --directory-prefix="C:\Percorso\Destinazione" http://sito.it

x_Master_x
30-07-2014, 12:06
Giusto, la stringa mettila sotto TAG CODE ( --> http://hwupgrade.it/forum/images_hwu/editor/code.gif ) la sintassi è:

[CODE]etc.[ /code] ( senza spazio )

staedtlerp
30-07-2014, 12:51
wget -e robots=off -r --no-clobber --convert-links --no-parent --reject "index.html*" --random-wait --wait=3 --directory-prefix="C:\Percorso\Destinazione" http://sito.it



Non so se così va bene...:D :D Grazie mille

OK...adesso ho capito...dovevo mettere la stringa al posto di etc. e senza spazio tra / e code....Grazie

x_Master_x
30-07-2014, 12:58
Non è quello che ti ho detto ma lasciamo stare :asd:
Non devi mettere lo spazio tra la / e CODE, in questo modo la stringa verrà chiusa nei tag, in questo modo:
wget -e robots=off -r --no-clobber --convert-links --no-parent --reject "index.html*" --random-wait --wait=3 --directory-prefix="C:\Percorso\Destinazione" http://sito.it

Non è necessario fare altri post, puoi modificare quelli che hai per "sperimentare" i TAG