[supersaibal]Originariamente inviato da giorgio_73
Ho letto qui http://www.searchengineworld.com/mis..._txt_crawl.htm che è un errore mettere il comando "allow" perchè il robots deve solo contenere "disallow" cioè dire allo spider cosa non indicizzare. Dunque mi chiedevo...se io voglio che tutti gli spider mi visitino tutte le pagine, non sarà un errore mettere comunque il robots.txt? [/supersaibal]
mettilo vuoto.