Visualizzazione dei risultati da 1 a 5 su 5
  1. #1

    recuperare info da altri siti

    Ciao a tutti ragazzi, sono nuovo nel forum vi disturbo subito.
    Praticamente volevo sapere se era possibile recuperare da alcuni siti tipo (expedia,trivago etc..) delle informazioni.
    So che ci sono vari metodi tipo cURL o fopen. Quindi mi domandavo qual'è il metodo più rapido e semplice, e poi se ho bisogno di autorizzazioni per farlo.

    Io dovrei recuperare solo l'ultima promozione inserita da parte delle mie aziende presenti già nel mio portale.

    Grazie a tutti in anticipo

  2. #2
    Utente di HTML.it L'avatar di Razorblade
    Registrato dal
    Feb 2002
    Messaggi
    1,308
    Ciao,
    in alcuni siti è espressamente vietato l'utilizzo di scrapers nelle condizioni d'uso, vedi questa pagina alla voce 'legal issues' per maggiori info.

    Per quanto riguarda la questione tecnica puoi usare la funzione file_get_contents() o ancora meglio, se hai cUrl abilitato, la soluzione che ho postato qui .

    Una volta che hai il contenuto puoi estrarre quello che ti serve con una espressione regolare usando preg_match() , in questo articolo ho postato un semplice esempio.

    Ciao

  3. #3
    Innazitutto grazie per la risposta, ho seguito il codice postato da te
    Codice PHP:
    <?php
    $url 
    'http://www.example.it';
    function 
    curlRequest($url)  
          { 
              
    $error 0
              
    $tentativi 0
              
    $limit 5
               
              do { 
                  
    // Richiesta Curl 
                  
    $ch curl_init(); 
                  
    curl_setopt($chCURLOPT_URL,$url); 
                  
    curl_setopt($chCURLOPT_HEADERfalse); 
                  
    curl_setopt($chCURLOPT_RETURNTRANSFERtrue); 
                  
    $data curl_exec($ch); 
                  
    $error curl_errno($ch); 
                  
    curl_close($ch); 
               
                  
    $tentativi++; 
                   
                  if(
    $tentativi == $limit) { 
                      break; 
                  } 
               
              } while(
    $error != 0); 
               
              
    //echo "Tentativi: ".$tentativi; 
              //var_dump($error); 
              
    return $data
          }
     
    ?>
    ma perchè non mi funziona? cioè mi stampa solo una pagina bianca, senza niente... è i cURL sono attivi.

  4. #4
    Utente di HTML.it L'avatar di Razorblade
    Registrato dal
    Feb 2002
    Messaggi
    1,308
    Ciao,
    se il codice è quello che hai postato hai definito la funzione ma non l'hai mai richiamata.
    Impostala così

    Codice PHP:

    // Definizione della funzione

    // Chiamata alla funzione
    $url 'http://www.example.it'
    curlRequest$url ); 
    Ciao

  5. #5
    Oltre a quanto detto da Razorblade volevo segnanare che se il sito in oggetto genera feed rss magari si potrebbe leggere quelli con xml parse
    http://php.net/manual/en/book.xml.php
    http://www.miniscript.it
    Se ti sono stato di aiuto in qualche modo in questo forum iscriviti alla fan page di Miniscript - il mio blog di programmazione web.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.