|
|
|
![]() |
|
Strumenti |
![]() |
#1 |
Senior Member
Iscritto dal: Oct 2003
Messaggi: 332
|
Salvataggio ciclico pagine web
Uno dei miei obbiettivi nella vita (beh, non proprio, ma diciamo che mi piacerebbe
![]() Ho provato con i downloader, ho provato con wget, ma non riesco a ottenere null'altro che index.html e robots.txt. Allora mi sono chiesto... siccome riesco a salvare le pagine da mozilla come normale html, non esiste un qualche plugin che naviga un sito seguendone i link e salva le pagine usandone il titolo come nome file? Insomma, sapete di qualche plugin simile, o comunque di qualche modo in cui possa scaricare quel sito? Mi sta facendo dannare ![]()
__________________
Athlon Thunderbird 1.4 - 256RAM - 40+120HD - Radeon9200 Toshiba M30X-128 - Dothan 1.8 - 512RAM - 80+600 HD - Radeon9700 Mobility 128 |
![]() |
![]() |
![]() |
#2 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
Ho dato una sbirciatina veloce al sito che hai linkato ed ho notato che è un sito dinamico.
Su questi tipi di siti i ragni, tipo Webreaper (quei programmini che ti scaricano il sito off line e te lo puoi consultare con calma) hanno forti limiti. Le pagine dinamiche non sono come le pagine HTML, esse sono, per così dire, create al momento da un compilatore (demone in Linux, servizio in Winows) che costruisce la pagina "al volo" in base alle richieste che hai effettuato. Spesso questi "compilatori" si appoggiano a database residenti in altri server e protetti da password. Per poter scaricare tutto il malloppo dovresti avere accesso at utte le fonti che il compliatore consulta, avere in locale il Webserver (tipo Apache) che usa il sito, ecc. Il file robots è un file di testo che serve ai ragni dei software tipo Teleport e Webreaper (ma non solo a quelli) per dirgli cosa posso scaricare e cosa no. Per fare quello che dici tu dovresti navigarti tutte le pagine del sito e salvartele una alla volta nell'HD. In altre parole la vedo un'impresa piuttosto ardua. Ciao |
![]() |
![]() |
![]() |
#3 | |
Senior Member
Iscritto dal: Oct 2003
Messaggi: 332
|
Quote:
Ma ciò che hai detto è giusto: dovrei salvarmele una a una. C'è un plugin per mozilla, o qualcosa del genere, che mi permetta di fare automaticamente proprio questo?
__________________
Athlon Thunderbird 1.4 - 256RAM - 40+120HD - Radeon9200 Toshiba M30X-128 - Dothan 1.8 - 512RAM - 80+600 HD - Radeon9700 Mobility 128 |
|
![]() |
![]() |
![]() |
#4 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
Tu cerchi un software che ti navighi un sito al posto tuo e ti salvi le pagine nell'HDD. Non esiste.
Torno a ripeterti: la pagine dinamiche non esistono. Te le creano al momento. Se c'è qualcosa in HTML, un ragno te lo salva, diversamnente devi essere tu a fare le richieste al compliatore. Tu saresti disposto a navigarti tutte le pagine e salvartele una ad una? Che te ne fai di un sito sterminato come quello nell'HDD, che domani è già vecchio? Ciao |
![]() |
![]() |
![]() |
#5 |
Senior Member
Iscritto dal: Oct 2003
Messaggi: 332
|
Ciò che cerco io è un software che faccia da solo clicklink-file-salva-rinomina-enter-clicklink
![]() Non esiste, dici tu? Nuuuu ![]() E' vero, domani è già vecchio, ma intanto ho diversi milioni di pagine da leggermi a casa senza connessione ![]() ![]()
__________________
Athlon Thunderbird 1.4 - 256RAM - 40+120HD - Radeon9200 Toshiba M30X-128 - Dothan 1.8 - 512RAM - 80+600 HD - Radeon9700 Mobility 128 |
![]() |
![]() |
![]() |
#6 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
Secondo la mia esperienza, quello che cerchi non esiste. Spero per te di essere smentito.
Ciao |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 11:02.