Ciao a tutti ho realizzato questo script che mi permette di trovare tutti i link in una pagina, o almeno cosi dovrebbe fare.
Vi spiego il mio problema:
Lo script legge i link presenti in un file .txt, segue il link ad esempio "http://www.miosito.com" e ne dovrebbe copiare tutti i link presenti nella pagina come: "http://www.miosito.com/contatti.php", "http://www.miosito.com/info.php" ecc.
Il problema è che mi trova solo il primo link presente nella pagina http://www.miosito.com e non mi trascrive gli altri.
Questo è il codice:
Codice PHP:
$file_handle = fopen("../db/url_segnalati.txt", "rb");
while (!feof($file_handle) ) {
$line_of_text = fgets($file_handle);
$parts = explode("\r\n", $line_of_text);
$url = array($parts[0]);
foreach($url as $sito){
$handle = fopen($sito, "rb");
$contents = stream_get_contents($handle);
preg_match ('/href="([^`]*?)"/', $contents, $matches_url);
$write=fopen ("../db/url_segnalati.txt","a+");
$con =fwrite ($write, "\r\n".$matches_url[1]);
}
}
Qualcuno avrebbe la pietà di dirmi come devo fare per fargli "raccogliere" tutti i link e non solo il primo?
Se mi sono spiegato male chiedete pure chiarimenti.
Grazie dell'aiuto!