Per un sito, fatto in php, con joomla, ho fatto la sitemap con SOFTplus GSiteCrawler. Il sito sta sul server dedicato di aruba. Il programmatore ha avuto dei problemi il giorno dopo che ha pubblicato i file: sitemap.xml, urllist.txt, robots.txt, gss.xls.
Mi disse che il 90% sono stati questi file a dare i problemi perchè il sito è dinamico e fatto in php ?!? che questi file hanno creato degli script ?!? txt, gss,xml generano i script?!?
Ho fatto le sitemap anche per altri siti che non stanno su aruba ma sui server locali... e non è mai successo niente, i siti fatti in asp, aspx, jsp...ma non siti fatti in php, e nemenno con joomla.
Non essendo programmatore ma seo (però qualcosina capisco, conosco bene html, java script, asp, jsp, css) volevo capire se davvero, in qualche modo, questi file potessero provoccare dei disturbi al php
grazie mille

Rispondi quotando