|
|
|
|
Strumenti |
12-02-2012, 03:22 | #1 |
Junior Member
Iscritto dal: Sep 2010
Messaggi: 24
|
Che programma usare?
Ciao a tutti.
Avrei la necessità di scaricare n pagine web contenenti ciascuna pochissimo testo... salvando il testo di ogni pagina su una riga di un file di testo... provo a fare un es. ho un elenco di url del tipo www.esempio.it/test.php?zzz=1013 www.esempio.it/test.php?zzz=1023 www.esempio.it/test.php?zzz=1029 www.esempio.it/test.php?zzz=1055 www.esempio.it/test.php?zzz=1061 www.esempio.it/test.php?zzz=1066 ... mi serve che il programma vada al primo url www.esempio.it/test.php?zzz=1013, apra la pagina e scriva tutto quello che trova nella prima riga del file output.txt poi vada a www.esempio.it/test.php?zzz=1023 e scriva tutto quello che trova nella seconda riga del file output.txt ecc... ho provato con Win Web Crawler, ma oltre che essere a pagamento impapocchia anche i dati... ho provato altri Web Crawlers free ma non fanno proprio quello di cui avrei bisogno.. suggerimenti? grazie! |
12-02-2012, 19:00 | #3 |
Junior Member
Iscritto dal: Sep 2010
Messaggi: 24
|
Win Web Crawler 2.0 è quello di cui parlavo
Smart and Simple Web Crawler 1.2.0 non si riesce a scaricare Chilkat Spider ActiveX 2.2.6 è una dll da integrare in altri programmi Links Wizard farebbe qualcosa di simile, ma non è free... |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 22:26.