Ciao a tutti ho realizzato questo script che mi permette di trovare tutti i link in una pagina, o almeno cosi dovrebbe fare.
Vi spiego il mio problema:
Lo script legge i link presenti in un file .txt, segue il link ad esempio "http://www.miosito.com" e ne dovrebbe copiare tutti i link presenti nella pagina come: "http://www.miosito.com/contatti.php", "http://www.miosito.com/info.php" ecc.
Il problema è che mi trova solo il primo link presente nella pagina http://www.miosito.com e non mi trascrive gli altri.

Questo è il codice:
Codice PHP:
$file_handle fopen("../db/url_segnalati.txt""rb");

while (!
feof($file_handle) ) {

$line_of_text fgets($file_handle);
$parts explode("\r\n"$line_of_text);
$url = array($parts[0]);
foreach(
$url as $sito){

$handle fopen($sito"rb");
$contents stream_get_contents($handle);

preg_match ('/href="([^`]*?)"/'$contents$matches_url);
$write=fopen ("../db/url_segnalati.txt","a+");
$con =fwrite ($write"\r\n".$matches_url[1]);
}

Qualcuno avrebbe la pietà di dirmi come devo fare per fargli "raccogliere" tutti i link e non solo il primo?
Se mi sono spiegato male chiedete pure chiarimenti.
Grazie dell'aiuto!