Non so se è la sezione giusta, però posto qui.
Sto cercando, come da oggetto, una protezione per bloccare lo scaricamento del mio sito con programmi tipo webreaper. Ho notato che inserire l'user-agent nel file robots.txt non serve a un bel niente.
Consigli?

Rispondi quotando
scherzo gokku
