View Full Version : Salvataggio ciclico pagine web
Violet sky
18-01-2005, 17:34
Uno dei miei obbiettivi nella vita (beh, non proprio, ma diciamo che mi piacerebbe :D) sarebbe di scaricarmi tutto il sito www.everything2.com per poterlo vedere offline da casa mia, dove non ho connessione.
Ho provato con i downloader, ho provato con wget, ma non riesco a ottenere null'altro che index.html e robots.txt.
Allora mi sono chiesto... siccome riesco a salvare le pagine da mozilla come normale html, non esiste un qualche plugin che naviga un sito seguendone i link e salva le pagine usandone il titolo come nome file?
Insomma, sapete di qualche plugin simile, o comunque di qualche modo in cui possa scaricare quel sito? Mi sta facendo dannare :muro:
tutmosi3
18-01-2005, 18:28
Ho dato una sbirciatina veloce al sito che hai linkato ed ho notato che è un sito dinamico.
Su questi tipi di siti i ragni, tipo Webreaper (quei programmini che ti scaricano il sito off line e te lo puoi consultare con calma) hanno forti limiti. Le pagine dinamiche non sono come le pagine HTML, esse sono, per così dire, create al momento da un compilatore (demone in Linux, servizio in Winows) che costruisce la pagina "al volo" in base alle richieste che hai effettuato. Spesso questi "compilatori" si appoggiano a database residenti in altri server e protetti da password. Per poter scaricare tutto il malloppo dovresti avere accesso at utte le fonti che il compliatore consulta, avere in locale il Webserver (tipo Apache) che usa il sito, ecc.
Il file robots è un file di testo che serve ai ragni dei software tipo Teleport e Webreaper (ma non solo a quelli) per dirgli cosa posso scaricare e cosa no.
Per fare quello che dici tu dovresti navigarti tutte le pagine del sito e salvartele una alla volta nell'HD.
In altre parole la vedo un'impresa piuttosto ardua.
Ciao
Violet sky
20-01-2005, 17:52
Originariamente inviato da tutmosi3
Per fare quello che dici tu dovresti navigarti tutte le pagine del sito e salvartele una alla volta nell'HD.
In altre parole la vedo un'impresa piuttosto ardua
Ma appunto perchè è un'impresa più impossibile che ardua (su quel sito vengono create decine di nuove pagine al giorno, complessivamente ne avrà qualche milione) che non posso farlo da solo.
Ma ciò che hai detto è giusto: dovrei salvarmele una a una. C'è un plugin per mozilla, o qualcosa del genere, che mi permetta di fare automaticamente proprio questo?
tutmosi3
21-01-2005, 19:13
Tu cerchi un software che ti navighi un sito al posto tuo e ti salvi le pagine nell'HDD. Non esiste.
Torno a ripeterti: la pagine dinamiche non esistono. Te le creano al momento. Se c'è qualcosa in HTML, un ragno te lo salva, diversamnente devi essere tu a fare le richieste al compliatore.
Tu saresti disposto a navigarti tutte le pagine e salvartele una ad una?
Che te ne fai di un sito sterminato come quello nell'HDD, che domani è già vecchio?
Ciao
Violet sky
24-01-2005, 13:38
Ciò che cerco io è un software che faccia da solo clicklink-file-salva-rinomina-enter-clicklink :fagiano:
Non esiste, dici tu?
Nuuuu :cry:
E' vero, domani è già vecchio, ma intanto ho diversi milioni di pagine da leggermi a casa senza connessione :sbav:
:cry:
tutmosi3
25-01-2005, 07:07
Secondo la mia esperienza, quello che cerchi non esiste. Spero per te di essere smentito.
Ciao
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.