PDA

View Full Version : [PHP] cURL - login e invio form per richiesta di info.


race2
04-07-2018, 16:31
Salve a tutti,
vorrei realizzare una piccola utility, un venditore su Amazon ha componenti elettronici ed accessori, a me interessano per rivenderli ad altri clienti miei, vorrei controllare quando ci sono delle cose che mi interessano.

Ho realizzato uno script che lanciandolo naviga il catalogo di questo rivenditore e memorizza i dati che mi interessano dell'articolo, vorrei rendere ancora più automatizzato e completo lo script,
vorrei inviare una richiesta di informazioni al venditore, nel caso la mia ricerca ha i canoni che voglio io.

La navigazione del catalogo non prevede Login,
nel momento che voglio inviare una richiesta di info, devo effettuare il login,
quindi gli steps sono questi:

0) pagina-0 - Pulsante "Contatta il venditore"
1) pagina-1 - inserimento "Username"
2) pagina-2 - inserimento "Password" + Invio

3) pagina-3 - scelta del tipo di domanda da inoltrare
4) pagina-4 - Pulsante "Scrivi il messaggio"
5) pagina-5 - Form di invio del messaggio

Questo è quanto.

Utilizzo php con cURL, lo script attualmente gira sul mio localhost di AMPPS, ma apepna finito lo farò girare su un hosting web.

Non sono troppo ferrato sui cookies

Vorrei farvi alcune domande, magari dopo avere affrontato queste domande se volete entreremo nel dettaglio dello script, ma prima devo capire la logica per riuscire nell'impresa.

- la mia scelta di usare curl la condividete oppure è meglio "Html Dom Parser" con file_get_html() ?
- avete dei consigli tecnici o di logica da darmi per affrontare questa cosa?
- sarà un impresa impossibile?

Grazie molte a tutti.

race2
04-07-2018, 19:15
Avrei pensato a una cosa del genere come script, giusto per farvi capire come l'ho pensata, ma chiaramente non funziona.


<?
$user = 'USERNAME';
$pass = 'PASSWORD';
$postdata = "username=" . $user . "&password=" . $pass;

$ckfile = tempnam ("C:/Users/Sviluppo/AppData/Local/Temp/", 'cookie');


$request = curl_init();
curl_setopt_array($request, Array(
CURLOPT_URL => 'https://www.amazon.it/pagina-con-pulsante-contatta-il-venditore/etc.....',
CURLOPT_SSL_VERIFYPEER => false,
CURLOPT_RETURNTRANSFER => true,
CURLOPT_FOLLOWLOCATION => false,
CURLOPT_COOKIEJAR => $ckfile,
CURLOPT_TIMEOUT => 30,
CURLOPT_USERAGENT => "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36",
CURLOPT_HEADER => true,
CURLINFO_HEADER_OUT > true,
CURLOPT_CUSTOMREQUEST => "POST",
CURLOPT_POST => true,
CURLOPT_POSTFIELDS => $postdata
));
$response = curl_exec($request);
curl_close($request);



$request2 = curl_init();
curl_setopt_array($request2, Array(
CURLOPT_URL => 'https://www.amazon.it/pagina-con-form-invia-richiesta-al-venditore/etc.....',
CURLOPT_SSL_VERIFYPEER => false,
CURLOPT_RETURNTRANSFER => true,
CURLOPT_FOLLOWLOCATION => false,
CURLOPT_COOKIEFILE => $ckfile,
CURLOPT_TIMEOUT => 30,
CURLOPT_USERAGENT => "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36",
CURLOPT_HEADER => true,
CURLINFO_HEADER_OUT > true
));
$response2 = curl_exec($request2);
curl_close($request2);
?>

Nuke987
04-07-2018, 22:10
Non ho chiarissimo quello che vuoi ottenere (soprattutto la parte riguardo il login) ma comunque sia personalmente farei così...
<?php

// Carico la vetrina di un negozio a caso su Amazon e la dò in pasto a Xpath
$data = file_get_contents('https://www.amazon.it/s?marketplaceID=APJ6JRA9NG5V4&me=AHQSP4NOMPP39&merchant=AHQSP4NOMPP39&redirect=true');
$dom = new DOMDocument;
libxml_use_internal_errors(true);
$dom->loadHTML($data);
$xpath = new DOMXpath($dom);

// Faccio il focus sull'h2 che contiene la classe s-access-title ovvero il nome dei prodotti
$productNames = $xpath->query("//h2[contains(@class, 's-access-title')]");

// Scrivo il numero di match trovati vale a dire i 24 prodotti presenti nella prima pagina della vetrina
echo 'Ci sono <strong>' . $productNames->length . '</strong> prodotti:';

echo '<ul>';

foreach ($productNames as $name)
{
// Scrivo il nome di ogni prodotto
echo '<li>' . $name->textContent . '</li>';
}

echo '</ul>';

?>
Puoi utilizzare lo stesso approccio per ricavare le altre informazioni che ti servono (prezzo, link prodotto, descrizione, immagine...). Non dimenticare di "seguire" la paginazione programmaticamente in modo da ricavare le informazioni di tutti i prodotti e non solo di quelli visibili in prima pagina. Quando hai finito tutto dai lo script in pasto ad un cron e lo fai girare una volta al giorno per memorizzare in locale (su database) il catalogo del negozio.

race2
05-07-2018, 08:04
Puoi utilizzare lo stesso approccio per ricavare le altre informazioni che ti servono (prezzo, link prodotto, descrizione, immagine...). Non dimenticare di "seguire" la paginazione programmaticamente in modo da ricavare le informazioni di tutti i prodotti e non solo di quelli visibili in prima pagina. Quando hai finito tutto dai lo script in pasto ad un cron e lo fai girare una volta al giorno per memorizzare in locale (su database) il catalogo del negozio.

No no, apetta...,
questo l'ho già fatto tutto!!

ti ringrazio che mi stai aiutando, devo chiederti di rileggere bene il post iniziale:

sai che se non sei loggato non puoi inviare richieste ai venditori.

mi servirebbe aiuto su:

- come posso loggarmi con le mie credenziali, salvare tutti i cookie che Amazon crea

- passare al secondo script che chiama la pagina del Form di richiesta, raccogliere il token che produce, (** ma già qui servono i cookies, altrimenti la pagina che ricevi e quella di login non del Form di richiesta, Amazon si autentifica tramite i cookies, ne crea un bel po ho notato **)

- passare ad un ulteriore script che invia la mia richiesta, (ma qui servono i cookies, altrimenti la richiesta che invii non arriva a destinazione, non viene raccolta dallo script in PHP di Amazon che pensa a inviare la mail, vieni buttato fuori perchè non sei stato riconosciuto).

Quello che chiedo è come raccogliere i cookie e come poi re-inviarli nello script successivo, e poi nello script successivo ancora, ... e cosi ancora....