Torna indietro   Hardware Upgrade Forum > Software > Programmazione

Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto
Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto
be quiet! debutta nel settore mouse da gaming con Dark Perk Ergo e Dark Perk Sym: due modelli gemelli per specifiche, con polling rate di 8.000 Hz anche in wireless, sensore PixArt PAW3950 da 32.000 DPI e autonomia dichiarata fino a 110 ore. Nel test, a 8.000 Hz si arriva a circa 30 ore reali, con ricarica completa in un'ora e mezza
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker
Analizziamo nel dettaglio DJI RS 5, l'ultimo arrivato della famiglia Ronin progettato per videomaker solisti e piccoli studi. Tra tracciamento intelligente migliorato e ricarica ultra rapida, scopriamo come questo gimbal eleva la qualità delle produzioni.
AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequenze al top per il gaming
AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequenze al top per il gaming
AMD Ryzen 7 9850X3D è la nuova CPU gaming di riferimento grazie alla 3D V-Cache di seconda generazione e frequenze fino a 5,6 GHz. Nei test offre prestazioni superiori a 9800X3D e 7800X3D, confermando la leadership AMD nel gaming su PC.
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 04-07-2018, 16:31   #1
race2
Senior Member
 
Iscritto dal: Aug 2000
Messaggi: 1209
[PHP] cURL - login e invio form per richiesta di info.

Salve a tutti,
vorrei realizzare una piccola utility, un venditore su Amazon ha componenti elettronici ed accessori, a me interessano per rivenderli ad altri clienti miei, vorrei controllare quando ci sono delle cose che mi interessano.

Ho realizzato uno script che lanciandolo naviga il catalogo di questo rivenditore e memorizza i dati che mi interessano dell'articolo, vorrei rendere ancora più automatizzato e completo lo script,
vorrei inviare una richiesta di informazioni al venditore, nel caso la mia ricerca ha i canoni che voglio io.

La navigazione del catalogo non prevede Login,
nel momento che voglio inviare una richiesta di info, devo effettuare il login,
quindi gli steps sono questi:

0) pagina-0 - Pulsante "Contatta il venditore"
1) pagina-1 - inserimento "Username"
2) pagina-2 - inserimento "Password" + Invio

3) pagina-3 - scelta del tipo di domanda da inoltrare
4) pagina-4 - Pulsante "Scrivi il messaggio"
5) pagina-5 - Form di invio del messaggio

Questo è quanto.

Utilizzo php con cURL, lo script attualmente gira sul mio localhost di AMPPS, ma apepna finito lo farò girare su un hosting web.

Non sono troppo ferrato sui cookies

Vorrei farvi alcune domande, magari dopo avere affrontato queste domande se volete entreremo nel dettaglio dello script, ma prima devo capire la logica per riuscire nell'impresa.

- la mia scelta di usare curl la condividete oppure è meglio "Html Dom Parser" con file_get_html() ?
- avete dei consigli tecnici o di logica da darmi per affrontare questa cosa?
- sarà un impresa impossibile?

Grazie molte a tutti.
race2 è offline   Rispondi citando il messaggio o parte di esso
Old 04-07-2018, 19:15   #2
race2
Senior Member
 
Iscritto dal: Aug 2000
Messaggi: 1209
Avrei pensato a una cosa del genere come script, giusto per farvi capire come l'ho pensata, ma chiaramente non funziona.

Codice:
<?
$user = 'USERNAME';
$pass = 'PASSWORD';
$postdata = "username=" . $user . "&password=" . $pass;

$ckfile = tempnam ("C:/Users/Sviluppo/AppData/Local/Temp/", 'cookie');


$request  = curl_init();
curl_setopt_array($request, Array(
    CURLOPT_URL => 'https://www.amazon.it/pagina-con-pulsante-contatta-il-venditore/etc.....',
    CURLOPT_SSL_VERIFYPEER => false,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_FOLLOWLOCATION => false,
    CURLOPT_COOKIEJAR => $ckfile,
    CURLOPT_TIMEOUT => 30,
    CURLOPT_USERAGENT => "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36",
    CURLOPT_HEADER => true,
    CURLINFO_HEADER_OUT > true,
    CURLOPT_CUSTOMREQUEST => "POST",
    CURLOPT_POST => true,
    CURLOPT_POSTFIELDS => $postdata
));
$response = curl_exec($request);
curl_close($request);



$request2  = curl_init();
curl_setopt_array($request2, Array(
    CURLOPT_URL => 'https://www.amazon.it/pagina-con-form-invia-richiesta-al-venditore/etc.....',
    CURLOPT_SSL_VERIFYPEER => false,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_FOLLOWLOCATION => false,
    CURLOPT_COOKIEFILE => $ckfile,
    CURLOPT_TIMEOUT => 30,
    CURLOPT_USERAGENT => "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36",
    CURLOPT_HEADER => true,
    CURLINFO_HEADER_OUT > true
));
$response2 = curl_exec($request2);
curl_close($request2);
?>
race2 è offline   Rispondi citando il messaggio o parte di esso
Old 04-07-2018, 22:10   #3
Nuke987
Member
 
Iscritto dal: Jul 2009
Messaggi: 275
Non ho chiarissimo quello che vuoi ottenere (soprattutto la parte riguardo il login) ma comunque sia personalmente farei così...
Codice PHP:
<?php

// Carico la vetrina di un negozio a caso su Amazon e la dò in pasto a Xpath
$data file_get_contents('https://www.amazon.it/s?marketplaceID=APJ6JRA9NG5V4&me=AHQSP4NOMPP39&merchant=AHQSP4NOMPP39&redirect=true');
$dom = new DOMDocument;
libxml_use_internal_errors(true);
$dom->loadHTML($data);
$xpath = new DOMXpath($dom);

// Faccio il focus sull'h2 che contiene la classe s-access-title ovvero il nome dei prodotti
$productNames $xpath->query("//h2[contains(@class, 's-access-title')]");

// Scrivo il numero di match trovati vale a dire i 24 prodotti presenti nella prima pagina della vetrina
echo 'Ci sono <strong>' $productNames->length '</strong> prodotti:';

echo 
'<ul>';

foreach (
$productNames as $name)
{
    
// Scrivo il nome di ogni prodotto
    
echo '<li>' $name->textContent '</li>';    
}

echo 
'</ul>';

?>
Puoi utilizzare lo stesso approccio per ricavare le altre informazioni che ti servono (prezzo, link prodotto, descrizione, immagine...). Non dimenticare di "seguire" la paginazione programmaticamente in modo da ricavare le informazioni di tutti i prodotti e non solo di quelli visibili in prima pagina. Quando hai finito tutto dai lo script in pasto ad un cron e lo fai girare una volta al giorno per memorizzare in locale (su database) il catalogo del negozio.
Nuke987 è offline   Rispondi citando il messaggio o parte di esso
Old 05-07-2018, 08:04   #4
race2
Senior Member
 
Iscritto dal: Aug 2000
Messaggi: 1209
Quote:
Originariamente inviato da Nuke987 Guarda i messaggi
Puoi utilizzare lo stesso approccio per ricavare le altre informazioni che ti servono (prezzo, link prodotto, descrizione, immagine...). Non dimenticare di "seguire" la paginazione programmaticamente in modo da ricavare le informazioni di tutti i prodotti e non solo di quelli visibili in prima pagina. Quando hai finito tutto dai lo script in pasto ad un cron e lo fai girare una volta al giorno per memorizzare in locale (su database) il catalogo del negozio.
No no, apetta...,
questo l'ho già fatto tutto!!

ti ringrazio che mi stai aiutando, devo chiederti di rileggere bene il post iniziale:

sai che se non sei loggato non puoi inviare richieste ai venditori.

mi servirebbe aiuto su:

- come posso loggarmi con le mie credenziali, salvare tutti i cookie che Amazon crea

- passare al secondo script che chiama la pagina del Form di richiesta, raccogliere il token che produce, (** ma già qui servono i cookies, altrimenti la pagina che ricevi e quella di login non del Form di richiesta, Amazon si autentifica tramite i cookies, ne crea un bel po ho notato **)

- passare ad un ulteriore script che invia la mia richiesta, (ma qui servono i cookies, altrimenti la richiesta che invii non arriva a destinazione, non viene raccolta dallo script in PHP di Amazon che pensa a inviare la mail, vieni buttato fuori perchè non sei stato riconosciuto).

Quello che chiedo è come raccogliere i cookie e come poi re-inviarli nello script successivo, e poi nello script successivo ancora, ... e cosi ancora....

Ultima modifica di race2 : 05-07-2018 alle 08:07.
race2 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Dark Perk Ergo e Sym provati tra wireless, software via browser e peso ridotto Dark Perk Ergo e Sym provati tra wireless, softw...
DJI RS 5: stabilizzazione e tracking intelligente per ogni videomaker DJI RS 5: stabilizzazione e tracking intelligent...
AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequenze al top per il gaming AMD Ryzen 7 9850X3D: Zen 5, 3D V-Cache e frequen...
Le soluzioni FSP per il 2026: potenza e IA al centro Le soluzioni FSP per il 2026: potenza e IA al ce...
AWS annuncia European Sovereign Cloud, il cloud sovrano per convincere l'Europa AWS annuncia European Sovereign Cloud, il cloud ...
Segway Navimow presenta la nuova gamma d...
Xiaomi SU7 Pro: l'ispezione dopo 265.000...
Nimbus Innovation Awards 2026: le miglio...
SSD Samsung contraffatto, ma Windows e C...
Enrique Lores, CEO e presidente di HP, l...
SoftBank e Intel preparano la 'memoria d...
Il blocco dei porno per i minori è...
AMD: i nuovi processori Zen 6 saranno (i...
Ancora aumenti per le schede video Radeo...
Sonos presenta Amp Multi a ISE 2026: il ...
Una funzione esclusiva dei Pixel potrebb...
La Cina vieta ufficialmente le maniglie ...
HP e lavoro ibrido: le nuove cuffie Poly...
MSI sta lavorando a un dissipatore ottim...
27 offerte Amazon, le prime 5 in elenco ...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 04:07.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2026, Jelsoft Enterprises Ltd.
Served by www3v