PDA

View Full Version : scarica siti (offline browser)


varenne
21-03-2003, 15:09
Chi me ne consiglia uno semplice semplice :confused:
ciao

dario79
21-03-2003, 17:45
webzip

ertortuga
21-03-2003, 18:12
a che serve questo programma? :muro:

dario79
21-03-2003, 18:16
ke dici?? se ho scritto un motivo ci sarà :cool:

ertortuga
21-03-2003, 18:19
Mi sono espresso male:
volevo sapere cosa si intende per scaricare un intero sito, non è un programma FTP...mi puoi dare il link da dove scaricarlo? :muro:

dario79
21-03-2003, 21:27
cerca con virgilio....te lo scarica sull'hdd....bye

varenne
22-03-2003, 13:44
garzie,lo provero'. ;)

icoborg
23-03-2003, 12:41
io ti consiglio webstripper ottimo

Quincy_it
27-03-2003, 21:25
Teleport Pro! :)

predator
28-03-2003, 20:31
Originally posted by "Quincy_it"

Teleport Pro! :)


Confermo! ;)

braga
29-03-2003, 15:01
Originally posted by "predator"




Confermo! ;)

Anche io!

icoborg
29-03-2003, 19:45
teleport pro nn è granke lo usato e spesso si blokka davanti agli script in java.
Un esempio classico è il tutorial su xp fatto da wintricks si blokkava al pulsante pagina2.

con webstripper invece nn ci sono problemi. ;)

Quincy_it
03-04-2003, 12:32
Originally posted by "icoborg"

teleport pro nn è granke lo usato e spesso si blokka davanti agli script in java.
Un esempio classico è il tutorial su xp fatto da wintricks si blokkava al pulsante pagina2.

con webstripper invece nn ci sono problemi. ;)

In effetti un problema che ogni tanto mi capita con Teleport è che, per qualche strano motivo, non mi scarica il sito indicato ma mi scarica pagine di errore (o non scarca nulla). Dici che dipende da quanto hai detto sopra?

icoborg
03-04-2003, 13:00
quasi sicuro hoprovato entrambi e anke altri come webzip....
il vantaggio di teleport consiste nel fatto ke puoi visionare quello ke man mano scarica mentre con webstripper no perke i file sono tutti in format nomefile.tmp inve ke nomefile.jpeg praticamente assomiglia a un "ripping" se mi passate il termine
cmq alla fine si vede tutto
nn ha mai ciccato un sito. ;)

Quincy_it
03-04-2003, 13:19
Originally posted by "icoborg"

quasi sicuro hoprovato entrambi e anke altri come webzip....
il vantaggio di teleport consiste nel fatto ke puoi visionare quello ke man mano scarica mentre con webstripper no perke i file sono tutti in format nomefile.tmp inve ke nomefile.jpeg praticamente assomiglia a un "ripping" se mi passate il termine
cmq alla fine si vede tutto
nn ha mai ciccato un sito. ;)

Ma devo settare qualche opzione particolare? Perchè l'ho provato su un sito con cui Teleport dava problemi e viene reindirizzato ad un'altra pagina proprio come succede con l'altro programma. :(

icoborg
03-04-2003, 13:29
dammi lindirizzo di sto sito vedo se mi fa =

Quincy_it
03-04-2003, 20:37
Originally posted by "icoborg"

dammi lindirizzo di sto sito vedo se mi fa =

Sorry se rispondo solo ora! :p
Purtroppo è un sito a cui sto lavorando ed è raggiungibile solo dalla rete interna dell'ufficio.
In generale volevo sapere se bisogna usare qualche opzione particolare con il programma che consigliavi. :)

badedas
03-04-2003, 20:48
Io uso

HTTrack Website Copier 3.2

lo trovi qui insieme ad altri

http://www.tuttogratis.it/software/softintofflinebrowsing.html

icoborg
03-04-2003, 20:49
nn so dirti cmq è abbastanza kiaro prova un po ;)

^O^ Yawn
06-04-2003, 10:41
teleport!

dolcetto
06-04-2003, 14:43
Ragazzi..ho provato teleport su un sito in flash...ma mi scarica solo la pagina iniziale html + il file swf...xò poi se vado a vedere sull'hd...apro la pagina..quella iniziale c'è..se clicco sui vari tasti x vedere le altre pagine...le apre..ma non esce niente al centro..
C'è qlk che ha già provato a scaricare pagine in flash??

icoborg
16-04-2003, 09:32
teleport ha esattamente quel limite.

prova webstripper, webzip o altri suggeriti teleport è molto conosciuto e usato ma nn è un granke

AlbioB
18-04-2003, 23:19
Offline Explorer rulez ;)

SlaveX
03-07-2003, 12:59
Sto cercando un software che mi scarichi interi o parziali siti web
Mi interesserebbe soprattutto scaricare anche le pagine .asp in modo da poter vedere alcuni script che mi interessano.
Quale potrebbe fare al caso mio?

abrasaxe
03-07-2003, 13:11
winhttrack website copier

e' freeware


oppure teleport pro, ma e' shareware

SlaveX
03-07-2003, 15:18
posso scaricare anche file .asp e .php ?

abrasaxe
03-07-2003, 19:09
e xche' no?

SlaveX
05-07-2003, 10:21
ma i file .asp me li converte in .htm ; io vorrei vedere lo script dentro!
come faccio?

Jedi82
05-07-2003, 12:16
ragazzi qlc di voi esperto in qst campo esiste? Io anche voto x winhttrackma e difficile da usareeeeee

Beralios
06-07-2003, 14:51
x SlaveX

Non puoi visualizzare il codice delle pagine .asp e .php perche' viene convertito sul server in codice html (detto in modo semplice).

Bye.

leo2k2
06-07-2003, 17:29
webzip e teleport

Digitos
07-07-2003, 13:14
Originally posted by "SlaveX"

posso scaricare anche file .asp e .php ?


No :( :(

comunque WiHhttrack è il migliore.

abrasaxe
08-07-2003, 23:24
come prog x scaricare siti web, freeware, segnalo anche GETLEFT (v 1.11) che non e' affatto male, ed e' anche in italiano, oltre al valido e conosciuto winhttrack website copier e a webreaper

Jedi82
09-07-2003, 20:14
Originally posted by "Digitos"




No :( :(

comunque WiHhttrack è il migliore.

digitos tu ci capisci di quel programma?

Digitos
09-07-2003, 21:05
Originally posted by "Jedi82"



digitos tu ci capisci di quel programma?

per le operazioni base direi di si....poi dipende cosa ci vuoi fare :) dimmi tu

Jedi82
10-07-2003, 23:35
io vorrei scaricare da un fornitissimo forum tante belle foto, e diciamo che la sezione interessata posta solo foto, come faccio? puoi guidarmi tu che io anke via tutorial n ci ho capito nulla? Ci posso mettere anche le ore, basta che ci riesco!

Jedi82
12-07-2003, 10:39
up

serbring
11-10-2004, 09:35
mi consigliate un buon programma per scaricare siti, che sia il più possibile leggero e che funzioni bene

200011
11-10-2004, 10:57
io ho utilizzato per un po' web extractor purtroppo non mi ha soddisfatto in pieno e soprattutto non è free

Bizkaiko
11-10-2004, 12:55
prova httrack

serbring
11-10-2004, 13:08
grazie a tutti e due proverò allora httrack

ImperatoreNeo
11-10-2004, 16:16
Teleport pro... è il migliore per la mia umile esperienza... ;)

http://www.softpedia.com/progDownload/Teleport_Pro-Download-5562.html

Ed è FREE!!

Byzzzzzzzzz

Adric
11-10-2004, 16:33
Originariamente inviato da ImperatoreNeo
Ed è FREE!!
FREE DOWNLOAD significa che il programma è liberamente scaricabile e provabile, ma non che sia gratuito.
Infatti sul sito del produttore:
http://www.tenmax.com/teleport/pro/download.htm
Teleport Pro is sold as shareware, so you can download and try out a fully functional (but capacity-limited) copy of the program right now. If you like it, you can then register the program, which removes all program limitations and lets you use the program as often and as much as you like. Registration is for life, and all upgrades are free. In addition, registration entitles you to free technical support.

Teleport Pro
Version 1.29.2074
Price: $39.95

serbring
11-10-2004, 16:50
Originariamente inviato da ImperatoreNeo
Teleport pro... è il migliore per la mia umile esperienza... ;)

http://www.softpedia.com/progDownload/Teleport_Pro-Download-5562.html

Ed è FREE!!

Byzzzzzzzzz
quali sono i limiti della versione free?

ImperatoreNeo
11-10-2004, 17:22
Eh vabbè... io lo uso ma non ho nessun problema..

Certo, se uno vuole fare una copia tale e quale del server che ospita i sito allora... si, non va bene.. ;)

serbring
13-10-2004, 09:28
ho provato a scaricare httrack e mi da il seguente errore

Information, Warnings and Errors reported for this mirror:
note: the hts-log.txt file, and hts-cache folder, may contain sensitive information,
such as username/password authentication for websites mirrored in this project
do not share these files/folders if you want these information to remain private
HTTrack Website Copier/3.32-2 mirror complete in 1 seconds : 2 links scanned, 1 files written (56774 bytes overall), no files updated [4396 bytes received at 4396 bytes/sec]
(No errors, 0 warnings, 16 messages)


cosa vuol dire? Che sto scaricando su un sito protetto?

tutmosi3
13-10-2004, 10:25
Ciao

Uso Web Reaper da anni. Utilizza vari tipi di filtri è leggero e freeware.

Un sito protetto può essere anche quello della posta elettronica (per esempio) non puoi scaricare anche la sezione di Libero che riguarda i mail box.

Fammi sapere.

Ciao.
Luca

serbring
15-10-2004, 10:55
Originariamente inviato da tutmosi3
Ciao

Uso Web Reaper da anni. Utilizza vari tipi di filtri è leggero e freeware.

Un sito protetto può essere anche quello della posta elettronica (per esempio) non puoi scaricare anche la sezione di Libero che riguarda i mail box.

Fammi sapere.

Ciao.
Luca

ho provato a scaricare con web reaper e a primo impatto sembra venuto molto bene il risultato. Ti ringrazio

G|4Di4k
27-10-2004, 13:53
Ho provato ad usare WinHTTTrack x scaricare il sito www.supertotto.com ma da errori a scaricare il menu in flash...Ci son altri programmi gratuiti che permettano di scaricare un clone 1:1 del sito ? :confused:

Altrimenti vanno bene anche shareware :rolleyes:

Grazie mille x ogni aiuto ricevuto :D

tutmosi3
27-10-2004, 20:26
Io uso Webreaper da anni e mi trovo bene. E' freeware, stabile e leggero (pesa circa 1.5 MB).

Vinc80
28-10-2004, 10:50
WebExtractor

pistri
28-10-2004, 13:03
Quindi io posso aprire un sito scaricarlo su pc e poi leggerlo con calma tutto non in linea??

Vinc80
28-10-2004, 13:11
Originariamente inviato da pistri
Quindi io posso aprire un sito scaricarlo su pc e poi leggerlo con calma tutto non in linea??

Esatto (con il 56k nn ti conviene :D )

Keith
28-10-2004, 15:14
Originariamente inviato da G|4Di4k
Ho provato ad usare WinHTTTrack x scaricare il sito www.supertotto.com ma da errori a scaricare il menu in flash...Ci son altri programmi gratuiti che permettano di scaricare un clone 1:1 del sito ? :confused:

Altrimenti vanno bene anche shareware :rolleyes:

Grazie mille x ogni aiuto ricevuto :D

Ma hai aggiunto l'estensione .swf????

lucignolo_one
02-11-2004, 08:41
............mi ricordo che qualche volta mi è capitato di farlo ma ora non mi ricordo piu quale programma usavo.Me ne consigliate qualcuno così magari ritrovo quello che usavo!!!


THANKS TO ALL!!!!!:cool:

manari
02-11-2004, 08:59
Puoi usare questo: HTTrack Website CopierCiao

Xfree
02-11-2004, 09:55
Esatto...tra l'altro è anche free.

lucignolo_one
02-11-2004, 10:33
Originariamente inviato da manari
Puoi usare questo: HTTrack Website CopierCiao


ok grazie (ma l'allegato che c'entra????)):D

cmq aspetto altri consigli per trovare il vecchio programma che usavo!!!

Xfree
02-11-2004, 10:41
Non è che era per caso Snake123?

Vinc80
02-11-2004, 11:37
Originariamente inviato da lucignolo_one
ok grazie (ma l'allegato che c'entra????)):D

cmq aspetto altri consigli per trovare il vecchio programma che usavo!!!

Webextractor ?

MM
02-11-2004, 23:05
Per il software c'è una sezione apposita

lucignolo_one
03-11-2004, 08:31
Originariamente inviato da MM
Per il software c'è una sezione apposita

ok.......scusssate!!!!

cmq non è webextractor!!

altre idee??????:rolleyes:

Nightingale
03-11-2004, 10:37
Teleport?

lucignolo_one
03-11-2004, 13:48
Originariamente inviato da Nightingale
Teleport?

grandeeeeeeeeeeee!!!!!è LUI..............MITTICOOOOOOO!!!!

Nightingale
03-11-2004, 13:52
Originariamente inviato da lucignolo_one
grandeeeeeeeeeeee!!!!!è LUI..............MITTICOOOOOOO!!!!

:D

lieto di averti tolto il tarlo! eheheh...

manari
06-11-2004, 08:25
Originariamente inviato da lucignolo_one
ok grazie (ma l'allegato che c'entra????)):D

cmq aspetto altri consigli per trovare il vecchio programma che usavo!!!
Ciao... l'allegato non c'entra nulla, è solo una gif! :angel:

Jedi82
06-11-2004, 17:21
Originariamente inviato da manari
Puoi usare questo: HTTrack Website CopierCiao

imho questo e il meglio, testalo!

nekos2
06-11-2004, 17:50
Originariamente inviato da Jedi82
imho questo e il meglio, testalo!

quoto alla grande, davvero mitico ;)

ominiverdi
06-11-2004, 18:48
esperienza personale:

teleport l'ho sempre trovato molto lento, molto piu' di winhttrack che e' freeware.
con un modem 56k winhttrack mi scaricava anche sino a 20kbytes/sec, teleport pro se arriva a 7-8 e' gia' un miracolo.
con adsl uguale, velocita mediamente doppie o quasi per winhttrack.

il piu' veloce soft in assoluto che ho provato di questa categoria, senza dubbio metaproducts Offline Explorer, un missile.
sulla cartala versione enterprise dovrebbe rappresntare uno dei migliori se non il migliore prog. della categoria, se ben ricordo l'unico ad avere come caratteristica il download intelligente dei siti ecc.
e quando si scaricano siti da centinaia di megabyte, certe funzioni sono utilissime

nel resuming di siti web massicci (ma anche nella chiusura del download), ho sempre avuto enormi problemi sia con winhttrack che con teleport (che non uso piu')
lentezza esasperante solo nel ricostruire la lista dei file, ancor prima di riiniziare il downloading

Ciao

Keith
10-11-2004, 18:30
Originariamente inviato da ominiverdi
esperienza personale:

teleport l'ho sempre trovato molto lento, molto piu' di winhttrack che e' freeware.
con un modem 56k winhttrack mi scaricava anche sino a 20kbytes/sec, teleport pro se arriva a 7-8 e' gia' un miracolo.
con adsl uguale, velocita mediamente doppie o quasi per winhttrack.

il limite fisico di un modem 56k è 56 kilobits per secondo ovvero 7 kilobytes per secondo (e non 20!! :D )anche se di solito si ferma a 4,5-5 kBps

85kimeruccio
11-11-2004, 23:42
ma tira giu TUTTO il sito ke noi diciamo????

TUTTE le cose hostate e TUTTE le "sottopagine" se x esempio mettiamo la home?

lucignolo_one
12-11-2004, 08:13
Originariamente inviato da 85kimeruccio
ma tira giu TUTTO il sito ke noi diciamo????

TUTTE le cose hostate e TUTTE le "sottopagine" se x esempio mettiamo la home?

si penso di si!!!
;)

tonyrid
12-11-2004, 08:30
Originariamente inviato da ominiverdi
esperienza personale:
il piu' veloce soft in assoluto che ho provato di questa categoria, senza dubbio metaproducts Offline Explorer, un missile.
sulla cartala versione enterprise dovrebbe rappresntare uno dei migliori se non il migliore prog. della categoria, se ben ricordo l'unico ad avere come caratteristica il download intelligente dei siti ecc.
e quando si scaricano siti da centinaia di megabyte, certe funzioni sono utilissime

nel resuming di siti web massicci (ma anche nella chiusura del download), ho sempre avuto enormi problemi sia con winhttrack che con teleport (che non uso piu')
lentezza esasperante solo nel ricostruire la lista dei file, ancor prima di riiniziare il downloading

parole sante!!:D :D :D

Leron
12-11-2004, 10:55
Originariamente inviato da 85kimeruccio
ma tira giu TUTTO il sito ke noi diciamo????

TUTTE le cose hostate e TUTTE le "sottopagine" se x esempio mettiamo la home?

dipende

se sono pagine dinamiche ovviamente scaricherà l'output, non il php

tonyrid
12-11-2004, 11:20
Originariamente inviato da Leron
dipende

se sono pagine dinamiche ovviamente scaricherà l'output, non il php

E' anche giusto e comprensibile essendo PHP un linguaggio Server -based
Aspettarsi di scaricare il codice sorgente delle pagine mi pare anche troppo...
;)

Leron
12-11-2004, 11:25
Originariamente inviato da tonyrid
E' anche giusto e comprensibile essendo PHP un linguaggio Server -based
Aspettarsi di scaricare il codice sorgente delle pagine mi pare anche troppo...
;)
ovviamente, ma molti non lo sanno :D

85kimeruccio
12-11-2004, 13:26
Originariamente inviato da Leron
dipende

se sono pagine dinamiche ovviamente scaricherà l'output, non il php

mi interessano tutte le immagini hostate + ke altro
:oink:

Lizard76
14-11-2004, 13:27
Se ti interessa scaricare solo le immagini, con teleport pro, lanci il wizard e scegli la voce serch a website for files of a certain type, quindi imposti la categoria Graphics (ti consiglio anche di scegliere un valore minimo dei file da scaricare di 30 Kb...in modo da non scaricare le Thumbs) ed il gioco è fatto. :)

ominiverdi
14-11-2004, 14:38
Originariamente inviato da Keith
il limite fisico di un modem 56k è 56 kilobits per secondo ovvero 7 kilobytes per secondo (e non 20!! :D )anche se di solito si ferma a 4,5-5 kBps

puo' andare ben oltre fidati il caro vecchio 56k se tirato a dovere

winhttrack scarica in parallelo e per questo aumenta la velocita' coi modem 56k

da netstat live ne ho misurati oltre 20 kbytes /sec. fino ad arrivare a picchi di 25 in alcuni attimi, visibili anche da connessione remota di windows, e soprattutto calcoli alla mano sul tempo per scaricare 1 Mbyte ;)

con un normale download manager invece di solito ci si ferma a 5-6 kb sec. in media per scaricare singoli files

anotherbrick
17-11-2004, 15:07
Ho la necessità di mantenere in locale un sito al quale devo continuamente accedere per motivi di lavoro. :muro:

Ho già usato programmi per scaricare siti, ma questo è in asp e ci si deve autenticare per entrare.

In pratica il sito visualizza un elenco di pratiche che il gestore affida al mio ufficio, ad ogni pratica è associato un link che porta ai dati specifici relativi ad essa. Nella pagina di ogni singola pratica ci sono dei tasti che aprono altre sezioni.

C'è qualche programma che riesca a navigare tra i collegamenti del sito ed ha salvare il tutto su hd?

.... esposizione un pò fumosa... nel caso fornirò maggiori dettagli

Grazie

godless
17-11-2004, 16:44
webzip?

tutmosi3
18-11-2004, 09:42
ASP è un linguaggio server side. Le pagine che vedi nel tuo schermo sono state precomilate da un "traduttore" (in ambiente Windows detto servizio, in ambiente Linux detto demone" HTTPD) che viene invocato alla necessità. In altre parole quelle che tu vedi nel monitor non sono pagine esistenti ma vengono, per così dire, create al volo su tua richiesta. Per averle off line dovresti avere un server interno con il supporto ASP (Windows XP) e avere tutto il database a disposizione.

Francamente non so se esiste qualcosa del genere ma la vedo dura anche perchè i database possono risiedere anche in altri server, magari potretti da password.

Spero di avere chiarito.

Fammi sapere.

Ciao

anotherbrick
18-11-2004, 11:55
Purtroppo era proprio quello che temevo.
Grazie per la chiarezza.

fahrenheit.451
02-12-2004, 16:25
ciao a tutti. vorrei sapere che programma posso usare per scaricare un sito intero per consultarlo a computer scollegato.

grazie e ciao.

.Kougaiji.
02-12-2004, 17:58
Winhttrack

Jedi82
02-12-2004, 21:37
+1

VegetaSSJ5
22-12-2004, 12:53
Salve a tutti. Vorrei salvare una pagina web e tutte quelle correlate in una cartella del mio hd. La pagina che vorrei salvare è questa:

http://www.ctyme.com/intr/int.htm

In pratica mi deve salvare anche tutte le pagine linkate all'interno di esse cioè quei link all'interno del quadrato a centro pagina e possibilmente anche tutte quelle del link 'categories'. Ho provato con teleport pro, sarà forse perchè non l'ho mai usato ma non ci riesco. Qualcuno mi può consigliare un buon sw per fare questo o magari mi dà una mano a farlo con teleport pro?? Grazie a chi mi risponderà.

madking
22-12-2004, 15:21
io uso un programma che si chiama web reaper, fa le stesse cose di teleport pro ma è free

se le trovi e hai problemi ad usarlo fischia che ti diamo due dritte :)

cya

VegetaSSJ5
22-12-2004, 16:20
madking non sono riuscito ad usarlo... ho lanciato il wizard ma ora non so più cosa fare! :(

tutmosi3
23-12-2004, 13:35
Anche io uso Webreaper, e da anni.
L'ho consigliato/installato a decine di persone, mai un problema.


Ciao

VegetaSSJ5
23-12-2004, 13:48
Originariamente inviato da tutmosi3
Anche io uso Webreaper, e da anni.
L'ho consigliato/installato a decine di persone, mai un problema.


Ciao
perchè non provi a salvare la struttura di pagine di cui parlo al primo post del thread? io non ci riesco, mi dice che non può scaricare i files perchè sono protetti (o una cosa del genere) :confused:

madking
23-12-2004, 14:09
effettivamente ho provato anche io e mi dice che leggendo un fantomatico file "robots.txt" gli viene negato l'accesso :(

appena ho due secondi provo a cercare maggiori info

tutmosi3
23-12-2004, 14:17
I ragni sono software vecchi di molti anni, ma il concetto non è cambiato. Interpellano un server, si fanno dire che file contiene e li salvano in locale. Questo in soldoni il funzionamento.

Nessun problema fino a che i file in questione sono HTML puro e semplice. Se si passa a linguaggi dinamici tipo JSP, PHP, ASP & Co. la faccenda si complica.
Le pagine di questo forum sono create da un "compilatore" PHP che si appoggia ad un database. Esse non risiedono staticamente in un server ma vengono, per così dire, create al volo da un "compliatore" (servizio in Windows, demone in Linux).

Webreaper non le potrà mai scaricare perchè non esistono.

Non mi dilungo perchè il discorso andrebbe approfondito. Comunque, questo, a grandi linee, è il concetto.

Ciao

tutmosi3
23-12-2004, 14:20
Robots è un file che assegna delle istruzioni ai robots (o spider) dei motori di ricerca e dei programmi tipo Webreaper.
Tutti possono inserire un file robots all'interno del proprio sito. I robots sono dei programmi utilizzati dai motori di ricerca per indicizzare le pagine web, quando un robot trova il file, lo legge e capisce cosa può scansionare e cosa no.

Ciao

VegetaSSJ5
23-12-2004, 19:01
tutmosi3 capisco il tuo discorso ma le pagine di quel sito sono tutte statiche html!!!

madking
23-12-2004, 19:44
se guardi il file che sta all'indirizzo http://www.ctyme.com/robots.txt ,che è quello che è indicato nel codice di errore di web reaper, vedi che indica chiaramente le directory che non possono essere scaricate, tra le quali c'è purtroppo quella che interessa a te :cry:

mi dispiace :(

VegetaSSJ5
23-12-2004, 20:02
:grrr:

tutmosi3
24-12-2004, 13:26
VegetaSSJ5 ho premuto invia risposta per sbaglio. I miei 2 messaggi dovevano essere 1 solo. La seconda perte era quella che ti interessava di più: la spiegazione ed il senso di robots.

Ciao

MiKeLezZ
30-12-2004, 13:47
Con questo me le salva
http://www.metaproducts.com/mp/mpProducts_Detail.asp?id=1

tutmosi3
30-12-2004, 19:56
In effetti ci sono dei software che io considero "carogne". Che io non menziono mai. Essi eludono le regole dettate dai robots.txt. E' come le reti P2P, ci sono dei client "corretti" che scaricano lenti perchè non eludono le regole a differenza di altri che vanno come schegge intrippando gli altri.

Ciao

VegetaSSJ5
30-12-2004, 23:12
x mikelezz:
ottimo software, solo che mi è andato in crash! mi dici il procedimnto che usi tu per salvare tutta da struttura .../intr compres le immagini (visto che le pagine salvate senza immagini sono quasi illegibili).

x tutmosi3:
mi dici quali sono i p2p che "eludono"?? ;)

tutmosi3
31-12-2004, 13:29
Originariamente inviato da VegetaSSJ5
x tutmosi3:
mi dici quali sono i p2p che "eludono"?? ;)

Emule ed i suoi degni compari.
Sarà anche il più diffuso ma io posso dirti che la rete Edonkey prima del suo arrivo era notevolmente più veloce.

Ciao

monkey72
29-01-2005, 18:50
...ho sentito che ne esistono, avrei bisogno di salvarmi un sito per poterlo leggere offline, qualcuno mi sa indicare qualcuno di questi sw?

tnx
monkey ;)

Hal2001
29-01-2005, 18:55
Ciao bellezza :flower:

Uno dei più famosi è HTTrack, è reso disponibile sotto licenza GPL, e lo trovi su http://www.httrack.com/

http://www.httrack.com/hts2/snap1.gif

monkey72
29-01-2005, 19:24
Originariamente inviato da Hal2001
Ciao bellezza :flower:

Ciao desaparecido (sto ancora aspettando la cover rossa per il mio nokia 8210)!!! ;) :flower:

Originariamente inviato da Hal2001
Uno dei più famosi è HTTrack, è reso disponibile sotto licenza GPL
tnx, ora provo ;)

Hal2001
30-01-2005, 02:51
Sicura? Pensavo che dopo tutto quello che era successo, non t'interessava più. E permettimi dolce donzella dove dovevo inviartela? ;)

Quel software è il più utilizzato, io parecchi anni fa ne usavo uno a pagamento, Teleport Pro. Ciao :)

Jedi82
30-01-2005, 10:19
Originariamente inviato da Hal2001
Ciao bellezza :flower:

Uno dei più famosi è HTTrack, è reso disponibile sotto licenza GPL, e lo trovi su http://www.httrack.com/

http://www.httrack.com/hts2/snap1.gif


+1, spakka davvero questo software!

monkey72
30-01-2005, 16:42
Originariamente inviato da Hal2001
Sicura? Pensavo che dopo tutto quello che era successo, non t'interessava più. E permettimi dolce donzella dove dovevo inviartela? ;)

E che era successo? :wtf:
Io ricordo solo che in quella discussione ti ho trattato un pò male xchè non ti avevo ricunosciuto, poi mi sono pubblicamente scusata... poi te sei sparito... :(
se non sparivi te lo dicevo dove inviarmela! :D
Originariamente inviato da Hal2001
Quel software è il più utilizzato, io parecchi anni fa ne usavo uno a pagamento, Teleport Pro. Ciao :)
sto usando httrack ed è ok x quello che mi serviva! ;)
tnx anche a te jedi :)

Jedi82
30-01-2005, 19:01
qualcuno saprebbe dirmi come usarlo x benino questo programma?? O esistono guide ben fatte?

giustinoni
30-01-2005, 19:46
Io lo sto provando ora...
Non è difficile, ma se c'è qualche guida per le opzioni avanzate non mi dà fastidio:D ;)

monkey72
30-01-2005, 20:53
ho scaricato un sito di 206 MB, senza problemi, non sono riuscita però a scaricarne un'altro con autenticazione, nonostante abbia impostato nome utente e password... :(

giustinoni
30-01-2005, 21:10
Forse è meglio se apro un thread nuovo per chiedere spiegazioni per l'uso?
Mi servirebbe poter evitare di salvare le parti del sito che hanno un certo numero in una certa posizione dell'URL...

è un sito di immagini con 3 risoluzioni:
www...com/1024.....
www...com/1280.....
www...com/1600.....
Vorrei poter salvare il sito completo con tutte le img a 1600
:)

DankanSun
31-01-2005, 15:38
prova anche wget

Jedi82
31-01-2005, 17:06
vi consiglio inoltre x chi usa Firefox un'estensione che ha le stesse funzioni di httrack e si chiama: downthemall..alta scuola ragazzi!

sh4rkm3n
01-02-2005, 10:21
Cia a tutti,
mi servirebbe un software possibilmente freeware che scarica siti interi o poche pagine.

Grazie

tutmosi3
01-02-2005, 10:41
Ultimamente va di moda HTTracks (che non conosco) ma io mi trovo bene con Webreaper. Entrambi molto buoni.

Webreaper è freeware per uso non commerciale, leggero e stabile. Lo uso da anni, mai un problema.

Ciao

Keith
01-02-2005, 11:48
Ho scritto una miniguida se vi può interessare...

WinHTTrack 3.32.02 Miniguida

Utilizzare la lingua inglese e non l'italiana (preferenze, lingua) perchè sennò non si riesce a settare come default di ignorare il robots.txt dei siti a causa di un difetto (vedi sotto).

Scrivere un progetto, andare su set options...

Settaggi consigliati:
Scan Rules: se volete aggiungete all'elenco i files di tutte le immagini con una spunta;
Limits: Transfer rate 200000 B/s
Flow control: Number of Connections: il default è 4 ma io ho messo 6
Time Out: il default è 120 s ma io ho messo 180 s
Retries: ho preferito mettere 2
Spider: Spider: no robots.txt rules

Ora date l'ok, quindi andate su preferences, save default options per salvare le opzioni come default. In seguito potrete resettarle con preferences, reset to default options.

Il resto è intuitivo. Buon divertimento!!

Keith

juninho85
01-02-2005, 16:15
offline commader

total commander

juninho85
01-02-2005, 16:16
offline commander

alessandra_grande
19-02-2005, 13:16
ciao a tutti, qualcuno mi può indicare un programma possibilmente freeware con il quale si possono scricare siti internet?

Grazie.
Ciao.
ALE

Adric
10-03-2005, 08:35
Questo tipo di programmi sono detti offline browser (o aspirasiti, succhiasiti ecc):
Qua ne trovate elencati parecchi:
http://download.cnet.com/windows/offline-browsers/?tag=mncol%3Bsort&rpp=30&sort=productName+asc

tutmosi3
10-03-2005, 10:47
Consiglio Webreaper: leggero, stabile, freeware per uso personale, download personalizzabili tramite filtri; lo uso da anni e va benissimo.

Ciao

Leron
25-03-2005, 21:57
mi è presa la morbosa ossessione di trackmania, un giochetto


ogni giorno pubblicano parecchie piste su questo sito

http://sunrise.tm-exchange.com/


ma stare a scaricare 50 piste alla volta tutte a mano divento fossile, dite che con qualche offline browser ci si riesce a impostare un filtro che dal link mi scarichi le piste?

il problema è che il link è in php

esempio

http://sunrise.tm-exchange.com/get.aspx?action=trackgbx&id=17106

ertortuga
26-03-2005, 10:15
Originariamente inviato da Leron
mi è presa la morbosa ossessione di trackmania, un giochetto


ogni giorno pubblicano parecchie piste su questo sito

http://sunrise.tm-exchange.com/


ma stare a scaricare 50 piste alla volta tutte a mano divento fossile, dite che con qualche offline browser ci si riesce a impostare un filtro che dal link mi scarichi le piste?

il problema è che il link è in php

esempio

http://sunrise.tm-exchange.com/get.aspx?action=trackgbx&id=17106

Scusa ma dic cosa si tratta?

PS con Free Download Manager cliccando sul secondo link mi parte il download in automatico. Hai provato con qualche download manager?

Keith
26-03-2005, 10:52
per il php non so. Cmq se usi winhttrack contrariamente agli altri offline browser devi disattivare nelle opzioni il robots.txt e usare la lingua inglese (a causa di un bug nell'italiana, ora non so se hanno risolto) per memorizzare la cosa come opzione default

Leron
26-03-2005, 11:09
Originariamente inviato da ertortuga
Scusa ma dic cosa si tratta?

PS con Free Download Manager cliccando sul secondo link mi parte il download in automatico. Hai provato con qualche download manager?
freshdownload mi scarica un file aspx, così come netpumper

è come quando con i download manager si scarica un file php invece che quello giusto


nettransport invece riesce a scaricare il file GBX corretto

il problema è che devo scaricarli uno a uno e sono 2 balle :D


con nettransport c'è il modo di fargli scaricare tutti i link di una pagina?

Max2
29-03-2005, 13:06
proverò alcuni dei programmi segnalati ;)

dune2000
10-05-2005, 22:32
freshdownload mi scarica un file aspx, così come netpumper

è come quando con i download manager si scarica un file php invece che quello giusto


nettransport invece riesce a scaricare il file GBX corretto

il problema è che devo scaricarli uno a uno e sono 2 balle :D


con nettransport c'è il modo di fargli scaricare tutti i link di una pagina?

nemmeno IExplorer riesce a rivedere il sito .php in modalità off-line
Certo che se uscisse un programma in grado di farlo avrebbe un gran vantaggio sulla concorrenza ...
se qualcuno ha delle novità si faccia avanti !!

VegetaSSJ5
10-05-2005, 22:49
nemmeno IExplorer riesce a rivedere il sito .php in modalità off-line
Certo che se uscisse un programma in grado di farlo avrebbe un gran vantaggio sulla concorrenza ...
se qualcuno ha delle novità si faccia avanti !!
non può esistere un programma in grado di farlo. per poterlo fare il sito dovrebbe girare sul tuo pc... :read:

tutmosi3
11-05-2005, 07:07
In parole povere

I siti cosiddetti dinamici (ASP, PHP, ecc.) sono tali in quanto le pagine che visualizziamo, vengono, per così dire, create al volo da una specie di compilatore che restituisce al browser una pagina costruita apposta, rispetto alle richieste dell'utente.
Una pagina PHP si potrebbe quasi dire che non esiste, esistono però le istruzioni perchè venga creata su richiesta.
Queste istruzioni sono scritte con inserti PHP all'interno di pagine HTML; esse rimandano anche a siti esterni o database locati in server diversi dal proprio, spesso protetti da password.

Ecco perchè i ragni non funzionano con le pagine dinamiche.
Uno dovrebbe avere accesso a tutte le risorse alle quali si appoggia la pagina e poterle scaricare.

Anche HWU è fatto in PHP. Se uno volesse catturare il sito dovrebbe avere accesso al database al quale si appoggia ed armarsi di tanta pazienza per copiare in locale milioni di post.

Ciao

dune2000
11-05-2005, 12:58
non può esistere un programma in grado di farlo. per poterlo fare il sito dovrebbe girare sul tuo pc... :read:
Alla fine c'è sempre un programmatore che se ne esce fuori con un'idea originale per risolvere certi problemi o aggirare certe limitazioni.
Per fortuna ...
W Linux

VegetaSSJ5
11-05-2005, 17:49
Alla fine c'è sempre un programmatore che se ne esce fuori con un'idea originale per risolvere certi problemi o aggirare certe limitazioni.
Per fortuna ...
W Linux
se si usa php solo per generare codice html allora la cosa è teoricamente possibile (ma a questo punto invece di fare il sito usando php solo per generare html si potrebbe usare direttamente l'html). in tutti gli altri casi (ovvero quando si prendono dati da un database ecc..) la cosa è IMPOSSIBILE.

Black_Angel77
22-05-2005, 13:36
Scusate ma sto provando sia il pro e l'ultra ma con l'ultra pero ho dei problemi cjhe mi lascia incompleti dei siti cosa che non mi pare faccia con il pro...
ma voi cosa usate??

alessandroemme
27-02-2006, 15:24
Ho trovato questo topic e penso proprio che faccia al caso mio, sto cercando un programmino per scaricare siti web, ne sto cercando uno semplice, cosa mi consigliate???

tutmosi3
27-02-2006, 16:23
Ho trovato questo topic e penso proprio che faccia al caso mio, sto cercando un programmino per scaricare siti web, ne sto cercando uno semplice, cosa mi consigliate???

Io consiglio Webreaper, lo uso da molti anni e va bene.
E' freeware (per uso personale) e leggero.
Ultimamente HTTracks va di moda.
Ciao

Bounty_
14-03-2007, 14:06
Cosa ho scaricato:
http://www.hwupgrade.it/forum/showthread.php?t=1419004

Il problema e' che dopo aver scaricato con WinHttrack il sito http://ocw.mit.edu
grande 30,2GByte mi sono accorto che in una pagina faceva riferimento a delle
lezioni video che invece sono su: http://mfile.akamai.com.
Come faccio ad ottenere una lista dei collegamenti esterni del sito gia' scaricato
in modo da verificare se sono da scaricare e poi far partire l'aggiornamento
del sito con i parametri opportuni?:wtf:
(l'aggiornamento ci impieghera' altri 4,5 giorni)
Aiuto per pieta' :muro: :muro: :mc: :mc:
I have seen that the video lectures are hosted in a different URL
http://mfile.akamai.com instead of http://ocw.mit.edu .
How can I be sure that http://mfile.akamai.com is the only other URL in which
files of http://ocw.mit.edu are hosted ? Is there a way to check the already
downloaded site http://ocw.mit.edu to get a list of external links that
I can ceck if I have to download them also?

Help please

Ciao :(

Jedi82
15-03-2007, 14:43
bounty hai la casella dei mess privati piena e nulla ti volevo dire che su queste questrioni non so proprio aiutarti mi spiace

tutmosi3
15-03-2007, 15:43
Nemmeno io saprei aiutarti.
Ciao

CronoX
10-04-2007, 21:42
Neo DOwnloader è er mejo!

sparklehorse
02-04-2008, 21:39
Sto usando WinHttrack,come faccio a capire la profondita dei limiti da impostare prima del download del sito?
ogni livello di profondita equivale allo scaricamento di ogni pagina linkata alla principale giusto?

^O^ Yawn
04-04-2008, 08:06
mettendo in link corretto come posso fare a salvare i filmati?

per es,, su lib€ro.it o su altre testate o sui documentari, mandano filmati.

li posso vedere in streaming, ma come posso salvarli?

sonicomorto
05-08-2009, 12:28
Ciao, sto provando Httrack e voglio salvare una parte di un sito tradotta col google translate, ovvero a titolo di esempio una cosa del genere:
http://translate.google.it/translate...www.php.net%2F

Essendoci un frame in alto di google il programma non salva il sito (infatti dopo 2 secondi ha già finito il salvataggio). Se invece provo a salvare la pagina non tradotta, me la salva perfettamente.
Qualcuno sa aiutarmi? Grazie

win_67
31-08-2009, 11:10
Salve a tutti, avrei bisogno di un programmino semplice per scaricare le discussioni di un forum e guardarmelo off line, per esempio questa discussione e riguardarmela con calma.
Il mio problema è che sia semplice per non sbagliarmi a scaricare la sola discussione invece di tutto il forum!! :D Grazie per i consigli

Abbo88
01-10-2009, 17:46
Uso httrack, ma non mi scarica i siti in php... c'è qualcosa che scarica siti in php dove devi loggarti?

super_haze
02-12-2009, 15:07
Ragazzi...rianimo un pochino il 3d.
Meglio httrack oppure plugin di firefox?

Dom77
28-12-2009, 10:23
ragazzi, mi vorrei salvare in locale questi siti:

http://www.enel.it/visitacentralihtml/VisitaCentralihtml/home.htm

http://www.enel.it/VisitaCentrali/main.htm

son cose interessanti, e purtroppo mi sa che non rimarranno fruibili per tanto tempo....ci son già dei collegamenti che non funzionano + :cry:


ho già provato col software "webstripper", ma mi riesce solo a salvare in locale le home page e basta...tutte le altre sottopagine non me le salva, oppure le devo aprire 1 ad 1 e poi lanciare il salvataggio dal webstripper...

come fò a salvarmi ste cose pari pari??? :confused:

help me please :cry:

Dom77
28-12-2009, 21:19
ragazzi, mi vorrei salvare in locale questi siti:

http://www.enel.it/visitacentralihtml/VisitaCentralihtml/home.htm

http://www.enel.it/VisitaCentrali/main.htm

son cose interessanti, e purtroppo mi sa che non rimarranno fruibili per tanto tempo....ci son già dei collegamenti che non funzionano + :cry:


ho già provato col software "webstripper", ma mi riesce solo a salvare in locale le home page e basta...tutte le altre sottopagine non me le salva, oppure le devo aprire 1 ad 1 e poi lanciare il salvataggio dal webstripper...

come fò a salvarmi ste cose pari pari??? :confused:

help me please :cry:

nessuno??:cry:
mi basterebbe anche un valido plugin/estensione per firefox...

Enz0
07-01-2010, 18:58
Salve ragazzi, dovrei scaricare in toto un sito internet da sfogliare in modalità non in linea. In secondo luogo poichè è aggiornato quasi quotidianamente vorrei soffermarmi a prelevare i singoli articoli. Come si fa ad estrapolare una singola sezione o pagina?

Grazie

Dom77
07-01-2010, 21:22
Salve ragazzi, dovrei scaricare in toto un sito internet da sfogliare in modalità non in linea. In secondo luogo poichè è aggiornato quasi quotidianamente vorrei soffermarmi a prelevare i singoli articoli. Come si fa ad estrapolare una singola sezione o pagina?

Grazie

prova con httrack ;) , lo trovi in due versioni:
-1 installante
-1 "stand alone" che non necessita di installazione


io l'ho già provato un paio di volte con la "stand alone" e son riuscito a scaricare quel che m'interessava. però non mi scarica i siti con le animazioni (credo in flash) tipo quello di cui ho messo il link qui sopra...

mi pare che ha pure una funzione che permette di "aggiornare" scaricando le nuove pagine inserite

;)

Enz0
07-01-2010, 22:25
prova con httrack ;) , lo trovi in due versioni:
-1 installante
-1 "stand alone" che non necessita di installazione


io l'ho già provato un paio di volte con la "stand alone" e son riuscito a scaricare quel che m'interessava. però non mi scarica i siti con le animazioni (credo in flash) tipo quello di cui ho messo il link qui sopra...

mi pare che ha pure una funzione che permette di "aggiornare" scaricando le nuove pagine inserite

;)

Ciao Dom, grazie innanzitutto per la risposta. Io uso "Page Nest", riesco anche singole parti?

lupri
11-02-2010, 12:26
mi servirebbe un programma che mi scarica un forum PHPBB, in modo che possa consultarlo offline. vorrei che, specificato il forum, mi scaricasse solo le cose essenziali per consultare i thread...


ho provato diversi programmi (anche httrack) ma tutti mi scaricano mega e mega di roba...esiste qualcosa di semplice che potrebbe fare al caso mio?

Zievatron
04-05-2010, 18:55
Ciao a tutti,
C'è qualcuno che sa usare bene HTTrack website copier?
Io non ci riesco e non so dove sbaglio.

Desidero farmi una copia off-line di un gruppo di pagine a cui accedo mediante userID e password.
Ma non voglio copiare le pagine una per una a mano e poi cercare di ricostruire i collegamenti.

Ho provato a far partire HTTrack dall'indirizzo della pagina che mi chiede ID e pass, fornendo ad HTTrack sia l'indirizzo che i dati di autenticazione. Sembrava aver funzionato (a parte alcune cose non trovate), cioè mi ha scodellato sul disco 35MB di roba e dice che ha finito.
Provando a visualizzare il risultato vedo la pagina che mi chiede l'autenticazione, ma provando ad usarla tenta di andare alla sua originale sul web.

Ho riprovato tentando di far partire HTTrack da dopo l'autenticazione. In questo caso finisce istantaneamente e visualizzando il risultato ho una pagina che avverte che serve una chiave di accesso valida.

Io non so proprio cosa fare.
Qualcuno può darmi qualche dritta?

Oppure, altrimenti, c'è un'altro programma che può fare al caso mio?

Zievatron
09-05-2010, 11:24
Possibile che nessuno sappia come si fa?
Nè conosca qualche altro programma che può farlo?
:(

Dom77
09-05-2010, 18:26
Possibile che nessuno sappia come si fa?
Nè conosca qualche altro programma che può farlo?
:(

piacerebbe saperlo pure a me, ma ho paura che sia proprio impossibile farlo a causa del login. :mad:

Zievatron
11-05-2010, 21:00
... ho paura che sia proprio impossibile farlo a causa del login. :mad:

Questo non è affatto logico.
Se io posso accedere alle pagine che mi interessano, usando una sola volta userID e Pass, e posso copiarle, perchè mai non dovrebbe essere possibile farlo fare ad un programma come HTTrack?

Non lo faccio io a mano con la funzione di Firefox "Salva pagina con nome" solo perchè poi avrei il problema di correggere a mano tutti i collegamenti tra le pagine. Se la copia la fa un programma adatto, invece, può provvedere in automatico a riscrivere tutti i collegamenti per rendere le pagine navigabili in locale.

Dom77
15-05-2010, 19:13
Questo non è affatto logico.
Se io posso accedere alle pagine che mi interessano, usando una sola volta userID e Pass, e posso copiarle, perchè mai non dovrebbe essere possibile farlo fare ad un programma come HTTrack?

Non lo faccio io a mano con la funzione di Firefox "Salva pagina con nome" solo perchè poi avrei il problema di correggere a mano tutti i collegamenti tra le pagine. Se la copia la fa un programma adatto, invece, può provvedere in automatico a riscrivere tutti i collegamenti per rendere le pagine navigabili in locale.

non so che dirti...fatto sta che c'ho provato anche io dopo essermi loggato su un forum ma non funziona...

Zievatron
15-05-2010, 19:48
Quì ho trovato un tutorial che spiega come dovrebbe funzionare:
http://httrack.kauler.com/help/CatchURL_tutorial

Ho fatto delle prove, ma per ragioni che ignoro, anche se la cattura dell'url funziona, poi non riesco a scaricare niente.
Forse, sbaglio qualcosa e non me ne rendo conto. Bhò?

Se vuoi provare anche tu, poi mi fai sapere.

Il guaio è che servirebbe qualcuno abbastanza competente da capire veramente come funzionano queste cose.

alessandroemme
24-11-2010, 05:14
Ciao a tutti, per scaricare delle pagine di forum, discussioni e leggermele con calma offline cosa mi potete consigliare??Teleport pro riesce oppure HTTrack??premetto che il forum in questione non vuole password e username per essere visitato, grazie a chi mi risponde

alberto.pd
23-12-2012, 17:26
Ciao
Ho scaricato e installato da poco HTTrack Website Copier dopo aver letto qui. Ora il programma sta facendo il suo mesterie (il download è in corso), ma già da adesso posso dire bene, perchè fa quello che mi serve. Promosso.

alberto.pd
05-05-2013, 12:34
Dopo vari download fatti con HTTrack e con soddisfazione mi trovo adesso a dover scaricare www.unattimodipace.it ma non ci riesco e questo è il messaggio del programma:

** ERRORE NEL MIRROR! **
HTTrack ha stabilito che il mirror attuale è vuoto. Se questo è un aggiornamento, il mirror precedente verrà ripristinato.Motivo: la prima pagina(e) non è stata trovata oppure c'è stato un problema durante la connessione
=> Assicuratevi che uil sito esista ancora, e/o verificate le vostre impostazioni del proxy! <=

Su"Impostazioni e opzioni del mirror" che configurazione devo mettere? Cosa devo cambiare? fino ad ora con quelle di dafault ho sempre fatto il lavoro in modo corretto

Grazie

antcos
27-03-2022, 07:03
Ad oggi quali sono i software migliori per scaricarsi i siti web?

Styb
27-03-2022, 09:43
Ad oggi quali sono i software migliori per scaricarsi i siti web?

https://www.geckoandfly.com/32437/download-websites/?msclkid=b97e9f3eada911ec807585269eb46926

Ti consiglio HTTrack oppure le estensioni per Firefox.

Aggiungo WebCopy: https://www.cyotek.com/cyotek-webcopy

antcos
27-03-2022, 10:31
Grazie,
non si può sapere quanto ci vuole a copiare tutto il sito web?

Styb
27-03-2022, 10:44
Grazie,
non si può sapere quanto ci vuole a copiare tutto il sito web?

Hai mai pensato quanto ci vorrebbe per scaricare tutto amazon?

antcos
27-03-2022, 10:50
Hai mai pensato quanto ci vorrebbe per scaricare tutto amazon?Sì lo so che è parecchio, ma avendo la "radice" non si può sapere quanto occuperà il tutto e quindi avere un tempo approssimativo di download?