Torna indietro   Hardware Upgrade Forum > Software > Programmazione

Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA
Abbiamo partecipato ad Appian World 2024, evento dedicato a partner e clienti che si è svolto recentemente nei pressi di Washington DC, vicino alla sede storica dell’azienda. Nel festeggiare il 25mo anniversario, Appian ha annunciato diverse novità in ambito intelligenza artificiale
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini
Primo contatto con il monitor Lenovo ThinkVision 3D 27 che grazie a particolari accorgimenti tecnici riesce a ricreare l'illusione della spazialità tridimensionale senza che sia necessario utilizzare occhialini
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing
Abbiamo visto ancora una volta la Formula E da vicino, ospiti di Jaguar TCS Racing. In questa occasione però curve e rettilinei erano quelli di un circuito permanente, molto diverso dagli stretti passaggi delle strade di Roma
Tutti gli articoli Tutte le news

Vai al Forum
Rispondi
 
Strumenti
Old 04-07-2018, 15:31   #1
race2
Senior Member
 
Iscritto dal: Aug 2000
Messaggi: 1209
[PHP] cURL - login e invio form per richiesta di info.

Salve a tutti,
vorrei realizzare una piccola utility, un venditore su Amazon ha componenti elettronici ed accessori, a me interessano per rivenderli ad altri clienti miei, vorrei controllare quando ci sono delle cose che mi interessano.

Ho realizzato uno script che lanciandolo naviga il catalogo di questo rivenditore e memorizza i dati che mi interessano dell'articolo, vorrei rendere ancora più automatizzato e completo lo script,
vorrei inviare una richiesta di informazioni al venditore, nel caso la mia ricerca ha i canoni che voglio io.

La navigazione del catalogo non prevede Login,
nel momento che voglio inviare una richiesta di info, devo effettuare il login,
quindi gli steps sono questi:

0) pagina-0 - Pulsante "Contatta il venditore"
1) pagina-1 - inserimento "Username"
2) pagina-2 - inserimento "Password" + Invio

3) pagina-3 - scelta del tipo di domanda da inoltrare
4) pagina-4 - Pulsante "Scrivi il messaggio"
5) pagina-5 - Form di invio del messaggio

Questo è quanto.

Utilizzo php con cURL, lo script attualmente gira sul mio localhost di AMPPS, ma apepna finito lo farò girare su un hosting web.

Non sono troppo ferrato sui cookies

Vorrei farvi alcune domande, magari dopo avere affrontato queste domande se volete entreremo nel dettaglio dello script, ma prima devo capire la logica per riuscire nell'impresa.

- la mia scelta di usare curl la condividete oppure è meglio "Html Dom Parser" con file_get_html() ?
- avete dei consigli tecnici o di logica da darmi per affrontare questa cosa?
- sarà un impresa impossibile?

Grazie molte a tutti.
race2 è offline   Rispondi citando il messaggio o parte di esso
Old 04-07-2018, 18:15   #2
race2
Senior Member
 
Iscritto dal: Aug 2000
Messaggi: 1209
Avrei pensato a una cosa del genere come script, giusto per farvi capire come l'ho pensata, ma chiaramente non funziona.

Codice:
<?
$user = 'USERNAME';
$pass = 'PASSWORD';
$postdata = "username=" . $user . "&password=" . $pass;

$ckfile = tempnam ("C:/Users/Sviluppo/AppData/Local/Temp/", 'cookie');


$request  = curl_init();
curl_setopt_array($request, Array(
    CURLOPT_URL => 'https://www.amazon.it/pagina-con-pulsante-contatta-il-venditore/etc.....',
    CURLOPT_SSL_VERIFYPEER => false,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_FOLLOWLOCATION => false,
    CURLOPT_COOKIEJAR => $ckfile,
    CURLOPT_TIMEOUT => 30,
    CURLOPT_USERAGENT => "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36",
    CURLOPT_HEADER => true,
    CURLINFO_HEADER_OUT > true,
    CURLOPT_CUSTOMREQUEST => "POST",
    CURLOPT_POST => true,
    CURLOPT_POSTFIELDS => $postdata
));
$response = curl_exec($request);
curl_close($request);



$request2  = curl_init();
curl_setopt_array($request2, Array(
    CURLOPT_URL => 'https://www.amazon.it/pagina-con-form-invia-richiesta-al-venditore/etc.....',
    CURLOPT_SSL_VERIFYPEER => false,
    CURLOPT_RETURNTRANSFER => true,
    CURLOPT_FOLLOWLOCATION => false,
    CURLOPT_COOKIEFILE => $ckfile,
    CURLOPT_TIMEOUT => 30,
    CURLOPT_USERAGENT => "Mozilla/5.0 (Windows NT 6.1) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/37.0.2062.124 Safari/537.36",
    CURLOPT_HEADER => true,
    CURLINFO_HEADER_OUT > true
));
$response2 = curl_exec($request2);
curl_close($request2);
?>
race2 è offline   Rispondi citando il messaggio o parte di esso
Old 04-07-2018, 21:10   #3
Nuke987
Member
 
Iscritto dal: Jul 2009
Messaggi: 273
Non ho chiarissimo quello che vuoi ottenere (soprattutto la parte riguardo il login) ma comunque sia personalmente farei così...
Codice PHP:
<?php

// Carico la vetrina di un negozio a caso su Amazon e la dò in pasto a Xpath
$data file_get_contents('https://www.amazon.it/s?marketplaceID=APJ6JRA9NG5V4&me=AHQSP4NOMPP39&merchant=AHQSP4NOMPP39&redirect=true');
$dom = new DOMDocument;
libxml_use_internal_errors(true);
$dom->loadHTML($data);
$xpath = new DOMXpath($dom);

// Faccio il focus sull'h2 che contiene la classe s-access-title ovvero il nome dei prodotti
$productNames $xpath->query("//h2[contains(@class, 's-access-title')]");

// Scrivo il numero di match trovati vale a dire i 24 prodotti presenti nella prima pagina della vetrina
echo 'Ci sono <strong>' $productNames->length '</strong> prodotti:';

echo 
'<ul>';

foreach (
$productNames as $name)
{
    
// Scrivo il nome di ogni prodotto
    
echo '<li>' $name->textContent '</li>';    
}

echo 
'</ul>';

?>
Puoi utilizzare lo stesso approccio per ricavare le altre informazioni che ti servono (prezzo, link prodotto, descrizione, immagine...). Non dimenticare di "seguire" la paginazione programmaticamente in modo da ricavare le informazioni di tutti i prodotti e non solo di quelli visibili in prima pagina. Quando hai finito tutto dai lo script in pasto ad un cron e lo fai girare una volta al giorno per memorizzare in locale (su database) il catalogo del negozio.
Nuke987 è offline   Rispondi citando il messaggio o parte di esso
Old 05-07-2018, 07:04   #4
race2
Senior Member
 
Iscritto dal: Aug 2000
Messaggi: 1209
Quote:
Originariamente inviato da Nuke987 Guarda i messaggi
Puoi utilizzare lo stesso approccio per ricavare le altre informazioni che ti servono (prezzo, link prodotto, descrizione, immagine...). Non dimenticare di "seguire" la paginazione programmaticamente in modo da ricavare le informazioni di tutti i prodotti e non solo di quelli visibili in prima pagina. Quando hai finito tutto dai lo script in pasto ad un cron e lo fai girare una volta al giorno per memorizzare in locale (su database) il catalogo del negozio.
No no, apetta...,
questo l'ho già fatto tutto!!

ti ringrazio che mi stai aiutando, devo chiederti di rileggere bene il post iniziale:

sai che se non sei loggato non puoi inviare richieste ai venditori.

mi servirebbe aiuto su:

- come posso loggarmi con le mie credenziali, salvare tutti i cookie che Amazon crea

- passare al secondo script che chiama la pagina del Form di richiesta, raccogliere il token che produce, (** ma già qui servono i cookies, altrimenti la pagina che ricevi e quella di login non del Form di richiesta, Amazon si autentifica tramite i cookies, ne crea un bel po ho notato **)

- passare ad un ulteriore script che invia la mia richiesta, (ma qui servono i cookies, altrimenti la richiesta che invii non arriva a destinazione, non viene raccolta dallo script in PHP di Amazon che pensa a inviare la mail, vieni buttato fuori perchè non sei stato riconosciuto).

Quello che chiedo è come raccogliere i cookie e come poi re-inviarli nello script successivo, e poi nello script successivo ancora, ... e cosi ancora....

Ultima modifica di race2 : 05-07-2018 alle 07:07.
race2 è offline   Rispondi citando il messaggio o parte di esso
 Rispondi


Appian: non solo low code. La missione è l’ottimizzazione dei processi con l'IA Appian: non solo low code. La missione è ...
Lenovo ThinkVision 3D 27, la steroscopia senza occhialini Lenovo ThinkVision 3D 27, la steroscopia senza o...
La Formula E può correre su un tracciato vero? Reportage da Misano con Jaguar TCS Racing La Formula E può correre su un tracciato ...
Lenovo LEGION e LOQ: due notebook diversi, stessa anima gaming Lenovo LEGION e LOQ: due notebook diversi, stess...
Nothing Ear e Ear (a): gli auricolari per tutti i gusti! La ''doppia'' recensione Nothing Ear e Ear (a): gli auricolari per tutti ...
Snapdragon X Plus, un nuovo SoC per i no...
L'iPad 10,9'' 64 GB è sceso a meno di 40...
Steam: basta ai furbetti dell'accesso an...
Motorola Edge 40 Neo con fotocamera da 5...
Arriva Kasperksy Next, la nuova gamma di...
Fallout, un successo senza fine: 1 milio...
Windows 11, arrivano le pubblicità...
Raccontaci la tecnologia che preferisci ...
AMD Ryzen 7 8700F e Ryzen 5 8400F: in ar...
Qual è l'impatto ambientale dei s...
WhatsApp, in arrivo una nuova feature pe...
Samsung Galaxy XCover 7: lo smartphone r...
TikTok, sempre più vicino il ban negli U...
Nuove TV Xiaomi A e A Pro, anche QLED e ...
Le bellissime cuffie Logitech G935, punt...
Chromium
GPU-Z
OCCT
LibreOffice Portable
Opera One Portable
Opera One 106
CCleaner Portable
CCleaner Standard
Cpu-Z
Driver NVIDIA GeForce 546.65 WHQL
SmartFTP
Trillian
Google Chrome Portable
Google Chrome 120
VirtualBox
Tutti gli articoli Tutte le news Tutti i download

Strumenti

Regole
Non Puoi aprire nuove discussioni
Non Puoi rispondere ai messaggi
Non Puoi allegare file
Non Puoi modificare i tuoi messaggi

Il codice vB è On
Le Faccine sono On
Il codice [IMG] è On
Il codice HTML è Off
Vai al Forum


Tutti gli orari sono GMT +1. Ora sono le: 14:18.


Powered by vBulletin® Version 3.6.4
Copyright ©2000 - 2024, Jelsoft Enterprises Ltd.
Served by www3v