|
|
|
![]() |
|
Strumenti |
![]() |
#81 |
Senior Member
Iscritto dal: Jan 2001
Città: Agropoli (SA)
Messaggi: 2057
|
webzip?
|
![]() |
![]() |
![]() |
#82 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
La vedo dura
ASP è un linguaggio server side. Le pagine che vedi nel tuo schermo sono state precomilate da un "traduttore" (in ambiente Windows detto servizio, in ambiente Linux detto demone" HTTPD) che viene invocato alla necessità. In altre parole quelle che tu vedi nel monitor non sono pagine esistenti ma vengono, per così dire, create al volo su tua richiesta. Per averle off line dovresti avere un server interno con il supporto ASP (Windows XP) e avere tutto il database a disposizione.
Francamente non so se esiste qualcosa del genere ma la vedo dura anche perchè i database possono risiedere anche in altri server, magari potretti da password. Spero di avere chiarito. Fammi sapere. Ciao |
![]() |
![]() |
![]() |
#83 |
Member
Iscritto dal: Mar 2004
Città: Perugia
Messaggi: 219
|
Purtroppo era proprio quello che temevo.
Grazie per la chiarezza. |
![]() |
![]() |
![]() |
#84 |
Junior Member
Iscritto dal: Nov 2004
Messaggi: 17
|
che programma per scaricare un sito?
ciao a tutti. vorrei sapere che programma posso usare per scaricare un sito intero per consultarlo a computer scollegato.
grazie e ciao. |
![]() |
![]() |
![]() |
#85 |
Senior Member
Iscritto dal: Apr 2004
Messaggi: 3243
|
Winhttrack
|
![]() |
![]() |
![]() |
#86 |
Senior Member
Iscritto dal: Nov 2001
Città: Roma
Messaggi: 16132
|
+1
|
![]() |
![]() |
![]() |
#87 |
Senior Member
Iscritto dal: Sep 2002
Città: Celano (AQ) Segno_Zodiacale: Leone Ascendente: Cammello Segni_Particolari: Quello
Messaggi: 9569
|
Salvare una struttura di pagine web su hard disk
Salve a tutti. Vorrei salvare una pagina web e tutte quelle correlate in una cartella del mio hd. La pagina che vorrei salvare è questa:
http://www.ctyme.com/intr/int.htm In pratica mi deve salvare anche tutte le pagine linkate all'interno di esse cioè quei link all'interno del quadrato a centro pagina e possibilmente anche tutte quelle del link 'categories'. Ho provato con teleport pro, sarà forse perchè non l'ho mai usato ma non ci riesco. Qualcuno mi può consigliare un buon sw per fare questo o magari mi dà una mano a farlo con teleport pro?? Grazie a chi mi risponderà. |
![]() |
![]() |
![]() |
#88 |
Senior Member
Iscritto dal: Jan 2002
Messaggi: 1161
|
io uso un programma che si chiama web reaper, fa le stesse cose di teleport pro ma è free
se le trovi e hai problemi ad usarlo fischia che ti diamo due dritte ![]() cya
__________________
Il cambiamento è alla base della paura. Per questo l'uomo ha paura della morte: perchè è l'unico cambiamento che ancora non ha saputo spiegare - Drizzt Do'Urden Canon 40D/BG/10-22/50 1.8/18-55 IS/55-250 IS |
![]() |
![]() |
![]() |
#89 |
Senior Member
Iscritto dal: Sep 2002
Città: Celano (AQ) Segno_Zodiacale: Leone Ascendente: Cammello Segni_Particolari: Quello
Messaggi: 9569
|
madking non sono riuscito ad usarlo... ho lanciato il wizard ma ora non so più cosa fare!
![]() |
![]() |
![]() |
![]() |
#90 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
Anche io uso Webreaper, e da anni.
L'ho consigliato/installato a decine di persone, mai un problema. Ciao |
![]() |
![]() |
![]() |
#91 | |
Senior Member
Iscritto dal: Sep 2002
Città: Celano (AQ) Segno_Zodiacale: Leone Ascendente: Cammello Segni_Particolari: Quello
Messaggi: 9569
|
Quote:
![]() |
|
![]() |
![]() |
![]() |
#92 |
Senior Member
Iscritto dal: Jan 2002
Messaggi: 1161
|
effettivamente ho provato anche io e mi dice che leggendo un fantomatico file "robots.txt" gli viene negato l'accesso
![]() appena ho due secondi provo a cercare maggiori info
__________________
Il cambiamento è alla base della paura. Per questo l'uomo ha paura della morte: perchè è l'unico cambiamento che ancora non ha saputo spiegare - Drizzt Do'Urden Canon 40D/BG/10-22/50 1.8/18-55 IS/55-250 IS |
![]() |
![]() |
![]() |
#93 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
I ragni sono software vecchi di molti anni, ma il concetto non è cambiato. Interpellano un server, si fanno dire che file contiene e li salvano in locale. Questo in soldoni il funzionamento.
Nessun problema fino a che i file in questione sono HTML puro e semplice. Se si passa a linguaggi dinamici tipo JSP, PHP, ASP & Co. la faccenda si complica. Le pagine di questo forum sono create da un "compilatore" PHP che si appoggia ad un database. Esse non risiedono staticamente in un server ma vengono, per così dire, create al volo da un "compliatore" (servizio in Windows, demone in Linux). Webreaper non le potrà mai scaricare perchè non esistono. Non mi dilungo perchè il discorso andrebbe approfondito. Comunque, questo, a grandi linee, è il concetto. Ciao |
![]() |
![]() |
![]() |
#94 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
Robots è un file che assegna delle istruzioni ai robots (o spider) dei motori di ricerca e dei programmi tipo Webreaper.
Tutti possono inserire un file robots all'interno del proprio sito. I robots sono dei programmi utilizzati dai motori di ricerca per indicizzare le pagine web, quando un robot trova il file, lo legge e capisce cosa può scansionare e cosa no. Ciao |
![]() |
![]() |
![]() |
#95 |
Senior Member
Iscritto dal: Sep 2002
Città: Celano (AQ) Segno_Zodiacale: Leone Ascendente: Cammello Segni_Particolari: Quello
Messaggi: 9569
|
tutmosi3 capisco il tuo discorso ma le pagine di quel sito sono tutte statiche html!!!
|
![]() |
![]() |
![]() |
#96 |
Senior Member
Iscritto dal: Jan 2002
Messaggi: 1161
|
se guardi il file che sta all'indirizzo http://www.ctyme.com/robots.txt ,che è quello che è indicato nel codice di errore di web reaper, vedi che indica chiaramente le directory che non possono essere scaricate, tra le quali c'è purtroppo quella che interessa a te
![]() mi dispiace ![]()
__________________
Il cambiamento è alla base della paura. Per questo l'uomo ha paura della morte: perchè è l'unico cambiamento che ancora non ha saputo spiegare - Drizzt Do'Urden Canon 40D/BG/10-22/50 1.8/18-55 IS/55-250 IS |
![]() |
![]() |
![]() |
#97 |
Senior Member
Iscritto dal: Sep 2002
Città: Celano (AQ) Segno_Zodiacale: Leone Ascendente: Cammello Segni_Particolari: Quello
Messaggi: 9569
|
![]() |
![]() |
![]() |
![]() |
#98 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
VegetaSSJ5 ho premuto invia risposta per sbaglio. I miei 2 messaggi dovevano essere 1 solo. La seconda perte era quella che ti interessava di più: la spiegazione ed il senso di robots.
Ciao |
![]() |
![]() |
![]() |
#99 |
Senior Member
Iscritto dal: Jul 2003
Messaggi: 26788
|
Con questo me le salva
http://www.metaproducts.com/mp/mpPro...etail.asp?id=1 |
![]() |
![]() |
![]() |
#100 |
Senior Member
Iscritto dal: Sep 2004
Città: Deir el-Bahari - Luxor Location desiderata: Nantucket (Maine - USA) Nome horo: Ka nekhet kha m uaset
Messaggi: 23966
|
In effetti ci sono dei software che io considero "carogne". Che io non menziono mai. Essi eludono le regole dettate dai robots.txt. E' come le reti P2P, ci sono dei client "corretti" che scaricano lenti perchè non eludono le regole a differenza di altri che vanno come schegge intrippando gli altri.
Ciao |
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 09:50.