Torna indietro   Hardware Upgrade Forum > Software > Linux, Unix, OS alternativi

Prova GeForce NOW upgrade Blackwell: il cloud gaming cambia per sempre
Prova GeForce NOW upgrade Blackwell: il cloud gaming cambia per sempre
L'abbonamento Ultimate di GeForce NOW ora comprende la nuova architettura Blackwell RTX con GPU RTX 5080 che garantisce prestazioni tre volte superiori alla precedente generazione. Non si tratta solo di velocità, ma di un'esperienza di gioco migliorata con nuove tecnologie di streaming e un catalogo giochi raddoppiato grazie alla funzione Install-to-Play
Ecovacs Deebot X11 Omnicyclone: niente più sacchetto per lo sporco
Ecovacs Deebot X11 Omnicyclone: niente più sacchetto per lo sporco
Deebot X11 Omnicyclone implementa tutte le ultime tecnologie Ecovacs per l'aspirazione dei pavimenti di casa e il loro lavaggio, con una novità: nella base di ricarica non c'è più il sacchetto di raccolta dello sporco, sostituito da un aspirapolvere ciclonico che accumula tutto in un contenitore rigido
Narwal Flow: con il mocio orizzontale lava i pavimenti al meglio
Narwal Flow: con il mocio orizzontale lava i pavimenti al meglio
Grazie ad un mocio rotante che viene costantemente bagnato e pulito, Narwal Flow assicura un completo e capillare lavaggio dei pavimenti di casa. La logica di intellignza artificiale integrata guida nella pulizia tra i diversi locali, sfruttando un motore di aspirazione molto potente e un sistema basculante per la spazzola molto efficace sui tappeti di casa
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 05-01-2007, 17:52   #1
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Non capisco la sintassi del wget :(

Quote:
Originariamente inviato da Matrixbob

>wget -o "directory di output" -i "file di input"
Non capisco la sintassi del wget.
Io vorrei usale le opz:
Codice:
-P,  --directory-prefix=PREFISSO   salva i file in PREFISSO/...
       --cut-dirs=NUMERO             ignora NUMERO componenti delle directory
                                     remote.
x salvare in 1 directory il file.

E:
Codice:
-D,  --domains=LISTA               lista di domini accettati, separati da
                                     virgole.
       --exclude-domains=LISTA       lista di domini rifiutati, separati da 
                                     virgole.
       --follow-ftp                  segue i link FTP dai documenti HTML.
       --follow-tags=LISTA           lista di tag HTML, separati da virgole,
                                     che vengono seguiti nello scaricamento.
       --ignore-tags=LISTA           lista di tag HTML, separati da virgole,
                                     che vengono ignorati.
x ignorare i TAG che non voglio prendere tipo <i></i>

Secondo voi come si usano?!
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2007, 17:53   #2
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Ho provato anche così:
wget -D i,br http://www.repubblica.it

e così:
wget --ignore-tags=<br> http://www.repubblica.it

, ma niente da fare!
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2007, 17:54   #3
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Per completezza riporto il suo HELP:
Codice:
GNU Wget 1.10.2, un programma non interattivo per scaricare file dalla rete.
Uso: wget [OPZIONE]... [url]...

Gli argomenti obbligatori per le opzioni lunghe lo sono anche per quelle corte.

Avvio:
  -V,  --version           mostra la versione di Wget ed esce.
  -h,  --help              mostra questo aiuto.
  -b,  --background        va in background dopo l'avvio.
  -e,  --execute=COMANDO   esegue COMANDO come se fosse scritto in ".wgetrc".

File di log e di input:
  -o,  --output-file=FILE    registra i messaggi su FILE.
  -a,  --append-output=FILE  accoda i messaggi a FILE.
  -d,  --debug               mostra le informazioni di debug.
  -q,  --quiet               silenzioso (nessun output).
  -v,  --verbose             prolisso (predefinito).
  -nv, --no-verbose          meno prolisso, ma non silenzioso.
  -i,  --input-file=FILE     scarica gli URL scritti in FILE.
  -F,  --force-html          tratta il file di input come HTML.
  -B,  --base=URL            aggiunge URL ai link relativi quando si usa -F 
                             sul file indicato con -i.

Scaricamento:
  -t,  --tries=NUMERO           imposta il NUMERO di tentativi (0 = illimitati).
       --retry-connrefused      riprova anche se la connessione è rifiutata.
  -O   --output-document=FILE   scrive tutti i documenti in un singolo FILE.
  -nc, --no-clobber             non scaricare file già esistenti.
  -c,  --continue               riprende a scaricare un file parzialmente
                                scaricato.
       --progress=TIPO          sceglie il TIPO di misurazione di progresso.
  -N,  --timestamping           non scarica file più vecchi di quelli locali.
  -S,  --server-response        mostra le risposte del server.
       --spider                 non scarica niente.
  -T,  --timeout=SECONDI        imposta tutti i timeout a SECONDI.
       --dns-timeout=SECONDI    imposta il timeout per la risoluzione del DNS
                                a SECONDI.
       --connect-timeout=SECONDI imposta il timeout di connessione a SECONDI.
       --read-timeout=SECONDI   imposta il timeout di lettura a SECONDI.
  -w,  --wait=SECONDI           aspetta SECONDI tra i vari download.
       --waitretry=SECONDI      aspetta 1...SECONDI tra i tentativi di
                                scaricamento.
       --random-wait            aspetta tra 0...2*WAIT secondi tra scaricamenti.
  -Y,  --proxy                  attiva esplicitamente l'uso del proxy.
       --no-proxy               disattiva esplicitamente l'uso del proxy.
  -Q,  --quota=NUMERO           imposta la quota di scaricamento a NUMERO.
       --bind-address=INDIRIZZO lega l'INDIRIZZO (nome dell'host o IP)
                                all'host locale.
       --limit-rate=VELOCITÀ    limita la VELOCITÀ di scaricamento in byte.
       --no-dns-cache           disattiva la cache per la risoluzione del DNS.
       --restrict-file-names=SO limita i caratteri nei nomi dei file a quelli
                                permessi dal sistema operativo SO indicato.
  -4,  --inet4-only             si connette solo a indirizzi IPv4.
  -6,  --inet6-only             si connette solo a indirizzi IPv6.
       --prefer-family=FAMIGLIA  si connette di preferenza ad indirizzi della
                                 FAMIGLIA specificata (IPv6, IPv4 o none).
       --user=UTENTE             imposta il nome utente ftp e http a UTENTE.
       --password=PASS           imposta la password ftp e http a PASS.

Directory:
  -nd, --no-directories           non crea directory.
  -x,  --force-directories        forza la creazione di directory.
  -nH, --no-host-directories      non crea directory sull'host.
       --protocol-directories     usa il nome di protocollo nelle directory.
  -P,  --directory-prefix=PREFISSO   salva i file in PREFISSO/...
       --cut-dirs=NUMERO             ignora NUMERO componenti delle directory
                                     remote.

Opzioni HTTP:
       --http-user=UTENTE      imposta l'utente http a UTENTE.
       --http-passwd=PASS      imposta la password http a PASS.
       --no-cache              non permette la cache dei dati sul server.
  -E,  --html-extension      salva con estensione ".html" i documenti HTML.
       --ignore-length       ignora il campo Content-Length degli header.
       --header=STRINGA      inserisce STRINGA tra gli header.
       --proxy-user=UTENTE   imposta il nome utente per il proxy a UTENTE.
       --proxy-passwd=PASS   imposta la password per il proxy a PASS.
       --referer=URL         include l'header "Referer: URL" nella richiesta
                             HTTP.
       --save-headers        salva gli header HTTP su file.
  -U,  --user-agent=AGENTE   si identifica come AGENTE invece che come
                             Wget/VERSIONE.
       --no-http-keep-alive  disabilita l'HTTP keep-alive (connessioni
                             persistenti).
       --no-cookies            non usa i cookies.
       --load-cookies=FILE   carica i cookies dal FILE prima della sessione.
       --save-cookies=FILE   salva i cookies sul FILE dopo la sessione.
       --keep-session-cookies  carica e salva i cookies per la sessione
                               (non permanenti).
       --post-data=STRINGA   usa il metodo POST; spedisce STRINGA come dati.
       --post-file=FILE      usa il metodo POST; spedisce i contenuti del FILE.

Opzioni HTTPS (SSL/TLS):
       --secure-protocol=PROT.  sceglie il protocollo sicuro, uno tra auto,
                                SSLv2, SSLv3,e TLSv1.
       --no-check-certificate   non valida il certificato del server.
       --certificate=FILE       file di certificato del client.
       --certificate-type=TIPO  tipo di certificato del client, PEM o DER.
       --private-key=FILE       file della chiave privata.
       --private-key-type=TIPO  tipo di chiave privata, PEM o DER.
       --ca-certificate=FILE    file with the bundle of CA's.
       --ca-directory=DIR       directory dove è memorizzata la lista dei CA.
       --random-file=FILE       file con dati casuali per inizializzare
                                SSL PRNG.
       --egd-file=FILE          file naming the EGD socket with random data.

Opzioni FTP:
       --ftp-user=UTENTE       imposta l'utente ftp a UTENTE.
       --ftp-password=PASS     imposta la password ftp a PASS.
       --no-remove-listing     non elimina i file ".listing".
       --no-glob              disabilita il globbing FTP dei nome di file.
       --no-passive-ftp        disabilita la modalità di trasferimento passiva.
       --retr-symlinks        scarica i file (non le directory) puntati dai
                              link simbolici quando si è in modalità ricorsiva.
       --preserve-permissions  preserva i permessi remoti dei file.

Scaricamento ricorsivo:
  -r,  --recursive          scaricamento ricorsivo.
  -l,  --level=NUMERO       profondità massima di ricorsione
                            (inf o 0 = illimitata).
       --delete-after         elimina localmente i file dopo averli scaricati.
  -k,  --convert-links        converte i link assoluti in relativi.
  -K,  --backup-converted     salva il file X come X.orig prima di convertirlo.
  -m,  --mirror               scorciatoia per -N -r -l inf --no-remove-listing.
  -p,  --page-requisites      scarica tutte le immagini, ecc, necessarie per
                              visualizzare la pagina HTML.
       --strict-comments      tratta i commenti HTML in modalità strict (SGML).

Accetto/rifiuto ricorsivo:
  -A,  --accept=LISTA                lista di estensioni accettate, separate da
                                     virgole.
  -R,  --reject=LISTA                lista di estensioni rifiutate, separate da
                                     virgole.
  -D,  --domains=LISTA               lista di domini accettati, separati da
                                     virgole.
       --exclude-domains=LISTA       lista di domini rifiutati, separati da 
                                     virgole.
       --follow-ftp                  segue i link FTP dai documenti HTML.
       --follow-tags=LISTA           lista di tag HTML, separati da virgole,
                                     che vengono seguiti nello scaricamento.
       --ignore-tags=LISTA           lista di tag HTML, separati da virgole,
                                     che vengono ignorati.
  -H,  --span-hosts                  visita anche altri host quando si è in
                                     modalità ricorsiva.
  -L,  --relative                    segue solo i link relativi.
  -I,  --include-directories=LISTA   lista di directory permesse.
  -X,  --exclude-directories=LISTA   lista di directory escluse.
  -np, --no-parent                   non risale alla directory superiore.

Inviare segnalazioni di bug e suggerimenti a <bug-wget@gnu.org>.
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 05-01-2007, 20:30   #4
MrAsd
Senior Member
 
L'Avatar di MrAsd
 
Iscritto dal: Jun 2002
Città: Piacenza - Bergamo
Messaggi: 1688
Quote:
Originariamente inviato da Matrixbob
x salvare in 1 directory il file.
wget -P path

Quote:
x ignorare i TAG che non voglio prendere tipo <i></i>
L'opzione --ignore-tags non elimina i tags dal sorgente della pagina ma ad elencare quali tags ignorare quando si attiva il download recorsivo.

man wget:
Codice:
       --ignore-tags=list
           This is the opposite of the --follow-tags option.  To skip certain
           HTML tags when recursively looking for documents to download, spec-
           ify them in a comma-separated list.

           In the past, this option was the best bet for downloading a single
           page and its requisites, using a command-line like:

                   wget --ignore-tags=a,area -H -k -K -r http://<site>/<document
>

           However, the author of this option came across a page with tags
           like "<LINK REL="home" HREF="/">" and came to the realization that
           specifying tags to ignore was not enough.  One can't just tell Wget
           to ignore "<LINK>", because then stylesheets will not be down-
           loaded.  Now the best bet for downloading a single page and its
           requisites is the dedicated --page-requisites option.
__________________
Good Kitty: "Jo'z heer!"
MrAsd è offline   Rispondi citando il messaggio o parte di esso
Old 10-01-2007, 17:18   #5
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Grazie.
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 11-01-2007, 14:18   #6
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Niente non ci riesco:


EDIT
OK c'è l'ho fatta così:
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.

Ultima modifica di Matrixbob : 11-01-2007 alle 14:23.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 27-04-2007, 10:37   #7
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Dovrei lanciare il wget in modo silenzioso che però mi vada a scrivere 1 file di log.
Per evitare che stampi inutilmente a video, ma mi faccia il report in 1 file.
Come si fa?!
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 27-04-2007, 14:36   #8
eclissi83
Senior Member
 
L'Avatar di eclissi83
 
Iscritto dal: Jan 2001
Messaggi: 2289
Quote:
Originariamente inviato da Matrixbob Guarda i messaggi
Dovrei lanciare il wget in modo silenzioso che però mi vada a scrivere 1 file di log.
Per evitare che stampi inutilmente a video, ma mi faccia il report in 1 file.
Come si fa?!
vale per tutti i comandi:

$TUO_COMANDO >> file_dove_vuoi_salvare

non so pero' se da windows funziona...
__________________
FreeBSD, OpenBSD and GNU/Linux User
Free Software Foundation Associate Member
proudly member of poco-serio™ team!
nella foto son quello simpatico... l'altro e' |Stan|
eclissi83 è offline   Rispondi citando il messaggio o parte di esso
Old 27-04-2007, 18:23   #9
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Quote:
Originariamente inviato da eclissi83 Guarda i messaggi
vale per tutti i comandi:

$TUO_COMANDO >> file_dove_vuoi_salvare

non so pero' se da windows funziona...
Alla fine ho fatto così:
-o, --output-file=FILE log messages to FILE.
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 28-04-2007, 08:13   #10
kingv
Senior Member
 
L'Avatar di kingv
 
Iscritto dal: Jan 2001
Città: Milano
Messaggi: 5707
Quote:
Originariamente inviato da Matrixbob Guarda i messaggi
Niente non ci riesco:


la causa dell'errore è che il wget che usi non è compilato col supporto per https.
kingv è offline   Rispondi citando il messaggio o parte di esso
Old 08-05-2007, 18:16   #11
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Quote:
Originariamente inviato da kingv Guarda i messaggi
la causa dell'errore è che il wget che usi non è compilato col supporto per https.
Grazie.
Ora vorrei ottimizzare il lancio del WGET perchè devo usarlo in una procedura automatica e vorrei che NON si bloccasse mai altrimenti il resto della procedura si blocca anch'essa.

Ad esempio il timeout x il download si mette così:
wget --timeout=30 --output-file=./log/scaricare.log -O output_file -i input_file
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 09-05-2007, 09:44   #12
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
... o meglio mettere:
--tries=10
al posto del timeout?
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 09-05-2007, 09:52   #13
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Quote:
Originariamente inviato da Matrixbob Guarda i messaggi
Ad esempio il timeout x il download si mette così:
wget --timeout=30 --output-file=./log/scaricare.log -O output_file -i input_file
Pensavo anche ad 1 bel:
wget --wait=2 --timeout=30

, così in teoria in 30 secondi faccio 15 tentativi di download del file.
Va bene x non sovraccaricare la rete?!
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 18-06-2007, 11:10   #14
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Non riesco a scaricare questi link col wget:
http://video.google.it/videofile/The...0256191&itag=7

è 1 sua limitazione o posso risolvere in qualche modo?!
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 19-06-2007, 14:21   #15
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Si pianta sul &itag mi pare:



Come aggiro il problema?!
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.

Ultima modifica di Matrixbob : 19-06-2007 alle 14:24.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 19-06-2007, 14:35   #16
cionci
Senior Member
 
L'Avatar di cionci
 
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
Quote:
Originariamente inviato da Matrixbob Guarda i messaggi
Si pianta sul &itag mi pare:

Come aggiro il problema?!
Prova a mettere il link fra doppi apici...
cionci è offline   Rispondi citando il messaggio o parte di esso
Old 19-06-2007, 14:42   #17
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Quote:
Originariamente inviato da cionci Guarda i messaggi
Prova a mettere il link fra doppi apici...
Il file IMHO in remoto c'è:



Ma il wget fa così:
Quote:
--15:38:33-- http://video.google.it/videofile/Two...1330717&itag=7
=> `canale1/Twogirlsteachoneanot.mp4@docid=-465292239831330717&itag=7'
Resolving video.google.it... 66.249.93.99, 66.249.93.104, 66.249.93.147
Connecting to video.google.it[66.249.93.99]:80... connected.
HTTP request sent, awaiting response... 302 Moved Temporarily
Location: http://vp.video.google.com/videodown...92239831330717 [following]
--15:38:33-- http://vp.video.google.com/videodown...92239831330717
=> `canale1/videodownload@version=0&secureurl=tgAAAPOtXj3nyLN1s3WkURhdHKk7ujc1lXrllfK7ZkmLRG8vXWT2UKVRjfdgyldAl6sZs6_k1QKSwCg1YlTGIzltUHNiz7wQV1mSm9jo2p-XU9OZFjt1m0O4SueULElhgI9rycjR0jGmCrFGVOMt5oLVFj52u3Wre5z-RMnwR7mRvaWbcR_Jfpy2OBE990UzKEXPxQPH5J-V3fUZ78T4fFhKinaC9nHPkTIGfowtxL92-Otm-UBi9ToxK2Xf7yfF7-4O7w&sigh=uTeGIrxHd-YJPYyEf2XodlsYpyc&begin=0&len=109776&itag=7&docid=-465292239831330717'
Resolving vp.video.google.com... 66.249.93.176
Connecting to vp.video.google.com[66.249.93.176]:80... connected.
HTTP request sent, awaiting response... 200 OK
Length: 5,145,161 [video/mp4]
canale1/videodownload@version=0&secureurl=tgAAAPOtXj3nyLN1s3WkURhdHKk7ujc1lXrllfK7ZkmLRG8vXWT2UKVRjfdgyldAl6sZs6_k1QKSwCg1YlTGIzltUHNiz7wQV1mSm9jo2p-XU9OZFjt1m0O4SueULElhgI9rycjR0jGmCrFGVOMt5oLVFj52u3Wre5z-RMnwR7mRvaWbcR_Jfpy2OBE990UzKEXPxQPH5J-V3fUZ78T4fFhKinaC9nHPkTIGfowtxL92-Otm-UBi9ToxK2Xf7yfF7-4O7w&sigh=uTeGIrxHd-YJPYyEf2XodlsYpyc&begin=0&len=109776&itag=7&docid=-465292239831330717: No such file or directory

Cannot write to `canale1/videodownload@version=0&secureurl=tgAAAPOtXj3nyLN1s3WkURhdHKk7ujc1lXrllfK7ZkmLRG8vXWT2UKVRjfdgyldAl6sZs6_k1QKSwCg1YlTGIzltUHNiz7wQV1mSm9jo2p-XU9OZFjt1m0O4SueULElhgI9rycjR0jGmCrFGVOMt5oLVFj52u3Wre5z-RMnwR7mRvaWbcR_Jfpy2OBE990UzKEXPxQPH5J-V3fUZ78T4fFhKinaC9nHPkTIGfowtxL92-Otm-UBi9ToxK2Xf7yfF7-4O7w&sigh=uTeGIrxHd-YJPYyEf2XodlsYpyc&begin=0&len=109776&itag=7&docid=-465292239831330717' (No such file or directory).
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 19-06-2007, 14:44   #18
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Adesso forse non riesce solo a scriverlo mi pare, trovarlo lo trova ne?!
Devo rinominarlo al volo?
Si può?
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
Old 19-06-2007, 14:53   #19
cionci
Senior Member
 
L'Avatar di cionci
 
Iscritto dal: Apr 2000
Città: Vicino a Montecatini(Pistoia) Moto:Kawasaki Ninja ZX-9R Scudetti: 29
Messaggi: 53971
Più che altro sembra che non trovi la directory canale1
cionci è offline   Rispondi citando il messaggio o parte di esso
Old 19-06-2007, 14:56   #20
Matrixbob
Senior Member
 
L'Avatar di Matrixbob
 
Iscritto dal: Jul 2001
Messaggi: 9947
Quote:
Originariamente inviato da cionci Guarda i messaggi
Più che altro sembra che non trovi la directory canale1
Mah io mi riordo che la creava da lei, adesso provo a crearla io.
__________________
Aiuta la ricerca col tuo PC: >>Calcolo distribuito BOINC.Italy: unisciti anche tu<<
Più largo è il sorriso, più affilato è il coltello.
Matrixbob è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Prova GeForce NOW upgrade Blackwell: il cloud gaming cambia per sempre Prova GeForce NOW upgrade Blackwell: il cloud ga...
Ecovacs Deebot X11 Omnicyclone: niente più sacchetto per lo sporco Ecovacs Deebot X11 Omnicyclone: niente più...
Narwal Flow: con il mocio orizzontale lava i pavimenti al meglio Narwal Flow: con il mocio orizzontale lava i pav...
Panasonic 55Z95BEG cala gli assi: pannello Tandem e audio senza compromessi Panasonic 55Z95BEG cala gli assi: pannello Tande...
HONOR Magic V5: il pieghevole ultra sottile e completo! La recensione HONOR Magic V5: il pieghevole ultra sottile e co...
DeepMind vuole rivoluzionare Big Pharma ...
YouTuber 'taglia' la sua Switch 2 per in...
Microsoft, clima teso dopo i licenziamen...
Successo per Tineco a IFA 2025: ricca co...
Telemarketing e truffe telefoniche: il f...
BYD contro l'AD di Stellantis Antonio Fi...
Scandalo AI nei remaster di Tomb Raider:...
Honda presenta N-One e, la sua prima kei...
La Cina deve smettere di usare le GPU NV...
AMD lancia il guanto di sfida: MI450 sar...
YouTube punta sull'audio multilingua: sa...
iPhone 17 annunciati, e gli iPhone 16 va...
Il futuro di Far Cry è multiplaye...
Hisense a IFA 2025: i nuovi TV RGB Mini ...
Vendite mondiali di auto elettriche, l'E...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 11:26.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2025, Jelsoft Enterprises Ltd.
Served by www3v