Apri il notepad e ti crei un file chiamato obbligatoriamente "Robots.txt"Originariamente inviato da noos
bella boolbo
hai capito xfettamente il problema
mi spiegheresti in linea generale come si fà????
tnx![]()
![]()
![]()
Dentro scrivi così:
# robots.txt for http://www.nometuosito.it
User-agent: *
Disallow: /nomecartella/
Disallow: /altronomecartella/
Disallow: /nomecartella/nomefile.htm
Disallow: nomefile.htm
Disallow: altronomefile.htm
# End of robots.txt file
L'asterisco indica che tutti gli spibot di tutti i motori devono tenere conto di queste istruzioni. Iol comando "Disallow" impedisce l'indicizzazione del file indicato e di tutti i file dentro la cartella indicata.
Il fole Robots.txt deve stare nella root dello spazio web, quindi dove sta il file Index della home. I riferimenti a cartelle e files partono tutti da lì, dalla root dove si trova il Robots.txt quindi.
Pertanto se vuoi impedire l'indicizzazione del contenuto di una cartella metti:
Disallow: /nomecartella/
Se solo di alcuni file della cartella metti:
Disallow: /nomecartella/nomefile1.htm
Disallow: /nomecartella/nomefile2.htm
Disallow: /nomecartella/nomefile6.htm
tutti gli altri file dentro nome cartella saranno invece indicizzati. Se li vuoi bloccare tutti fai come sopra, cioè disabiliti tutta la cartella.
Se i file non sono contenuti in sottocartelle ma sono nella root dove si trova il robots.txt devi indicara i nomi di ogni file che vuoi disabilitare dall'indicizzazione così:
Disallow: nomefile1.htm
Disallow: nomefile2.htm
e così via.
Per altre istruzioni più dettagliate vedi qui:
http://www.searchengineworld.com/rob...s_tutorial.htm
http://www.robotstxt.org/wc/robots.html
se