Ciao a tutti.
Vorrei un aiuto per orientarmi nel mondo (più sistemistico che altro) degli spider e dei web-grabber.
Di recente un sito della mia azienda è stato interamente copiato con uno dei tanti programmini che girano per internet...
Che voi sappiate, esistono dei metodi per inserire delle regole che blocchino questo tipo di accessi?
So che in partenza sono sul forum sbagliato, perchè dubito che queste configurazioni siano legate ad apache... probabimente sono più legate a squid, iptables, e simili.
Ma sicuramente anche apache fa la sua parte, in quanto può controllare il nome del browser utilizzato, la quantità di pagine lette al secondo, e successivamente passare queste informazioni ad un firewall.
Se i moderatori me lo permettono, aprirò questo post (un post simile) anche nella sezione linux...
Grazie per qualsiasi aiuto...
P.S. So che anche riuscendo a mettere a punto queste tecniche, il "copia e incolla" si potrà sempre fare... ma almeno ci mettono più tempo![]()