Il file robots.txt serve per impedire l'accesso degli spider dei motori e non (ad esempio anche dei brower offline) a deteriante cartelle o files.Originariamente inviato da xnavigator
nelle statistiche dove ci sono le pagine con url sbagliato ho visto che c'è robots.txt...
so che serve ai motori... però non so cosa scriverci dentro..![]()
![]()