|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#1 |
|
Senior Member
Iscritto dal: Jun 2005
Città: Napoli
Messaggi: 2599
|
salvare un sito internet in pdf
salve a tutti, c'è un modo per salvare un intero sito internet, sia che sia su un unica pagina, sia su più pagine, in un unico file pdf????
anche se dovessi aggiungere a mano i collegamenti per ogni pagina.. grazie
__________________
Hp pavilion dv6-1250el [cpu: P8700 - ati radeon hd 4650 1 gb - 4 gb ram - hd 320 7200 rpm!] Garmin Official Thread |
|
|
|
|
|
#2 |
|
Senior Member
Iscritto dal: Jun 2005
Città: Napoli
Messaggi: 2599
|
anche se non è in pdf ma in un altro formato stampabile va bene...tipo documento di openoffice...
__________________
Hp pavilion dv6-1250el [cpu: P8700 - ati radeon hd 4650 1 gb - 4 gb ram - hd 320 7200 rpm!] Garmin Official Thread |
|
|
|
|
|
#3 |
|
Senior Member
Iscritto dal: Aug 2007
Messaggi: 1270
|
Su konqueror basta cliccare su "Stampa su file PDF" e stampa la pagina su un file PDF.
Anche con altri browser si potrà fare immagino. |
|
|
|
|
|
#4 |
|
Senior Member
Iscritto dal: Jun 2005
Città: Napoli
Messaggi: 2599
|
quindi dovrei farlo pagina per pagina!! sono un po troppe...(quasi 1000)
__________________
Hp pavilion dv6-1250el [cpu: P8700 - ati radeon hd 4650 1 gb - 4 gb ram - hd 320 7200 rpm!] Garmin Official Thread |
|
|
|
|
|
#5 |
|
Senior Member
Iscritto dal: Jan 2006
Messaggi: 1525
|
hmm che io sappia non si puo' fare diversamente, forse pero' se rovisti un po' sul sito firefox add-on potresti anche trovare qualcosa di interessante
ad una prima ricerca mi e' saltato fuori: "MetaProducts Integration Integrate MetaProducts software with Mozilla browsers. Download links and Web sites using Mass Downloader and Offline Explorer. Save Web pages as you see them for future reference with MetaProducts Inquiry." che ne dici?
__________________
-)(- debian -)(- |
|
|
|
|
|
#6 |
|
Senior Member
Iscritto dal: Aug 2007
Messaggi: 1270
|
Penso che esista qualche utility apposta, spulciando un po magari la trovi, altrimenti usando wget e html2pdf puoi farti uno script che legge la lista di url da un file, li scarica e li converte in PDF.
anche in perl o python che sono più pratici ci sono delle funzioni simili. |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 13:30.




















