Ciao a tutti, come da titolo volevo sapere se esiste un modo per salvare tutti i link presenti su una pagina con PHP.
Lo script in poche parole dovrebbe leggere alcune pagine (es. http://www.mio_sito.com) indicate su un txt (url_segnalati.txt) e per ogni pagina indicata leggerne il contenuto e indicare su un altro txt (url.txt) tutti gli url che trova nelle pagine (es. http://www.mio_sito.com/contatti.php
http://www.mio_sito.com/info.php
http://www.mio_sito.com/portfolio.php).
Sono abbastanza negato con PHP, ho provato a fare qualcosa ma penso sia sbagliato sotto vari aspetti vi posto il codice che ho scritto:
Grazie in anticipo dell'aiuto!Codice PHP:
$file_handle = fopen("../db/url_segnalati.txt", "rb");
while (!feof($file_handle) ) {
$line_of_text = fgets($file_handle);
$parts = explode("\r\n", $line_of_text);
$url = array($parts[0]);
foreach($url as $sito){
$contents = file_get_contents($sito);
preg_match ('/<a href"([^`]*?)"/', $contents, $matches_title);
$write=fopen ("../db/url.txt","a+");
$con =fwrite ($write, $matches_title [1]."\r\n");
}
}