Per un sito fatto in php con joomla ho fatto la sitemap con SOFTplus GSiteCrawler per google. Il sito sta sul server dedicato di aruba. Il programmatore ha avuto dei problemi ilgiorno dopo che ha pubblicato i file: sitemap.xml, urllist.txt, robots.txt, gss.xls.
Mi disse che il 90% sono stati questi file a dare i problemi perchè il sito è dinamico e fatto in php ?!? che questi file hanno creato degli script ?!? txt, gss,xml generano i script?!?
Ho fatto las itemap anche per altri siti che non stanno su aruba ma sui server locali... e non è mai successo niente, i siti fatti in asp, aspx, jsp...ma non siti fatti in php, e nemenno con joomla.
Non essendo programmatore ma seo (però qualcosina capisco, conosco bene html, java script, asp, jsp, css) volevo capire se davvero, in qualche modo, questi file potessero provoccare dei disturbi al php
grazie mille