[supersaibal]
Originariamente inviato da Bat
Concordo con E.L., ti metteresti dalla parte del torto.
Il punto è: perchè salvano le pagine del tuo sito?
i casi sono due: o a qualcuno interessano le tue pagine per ragioni di concorrenza oppure sono utenti interessati al contenuto.
se il consumo di banda/numero eccessivo di accessi ti infastidisce una modifica tattica del robots.txt escludendo una buona parte dei sftw. di prelievo pagine automatiche potrebbe essere una soluzione.
Ma visto che l'obiettivo di un sito che vuole essere di buon livello deve sempre essere l'utilità/usabilità potrebbe non essere una mossa molto popolare.
Secondo me nel momento in cui disabiliti questa possibilità dovresti almeno aggiungere della documentazione personalizzata scaricabile (il solito pdf) con i contenuti, magari organizzati per argomenti.
(per semplificare una soluzione potrebbe essere quella di salvare direttamente dei "capitoli" con il contenuto delle tue pagine web direttamente salvato in pdf)
Mi rendo conto che per un sito così potrebbe diventare un lavoro titanico, ma per l'utonto si fa questo ed altro no?

[/supersaibal]