eh ma considera che 3/4 del traffico lo fanno i crawler,alcuni etici(rispetto del file robots,etc etc) altri se ne infischiano e fanno solo quel che pare loro. se cerchi in giro,troverai una lista sterminata di bots da bannare attraverso codice,per evitare che per fare la loro scansione ti succhino banda utile per i "veri navigatori". a tal proposito,ci sono in giro alcuni articoli e thread che trattano il problema , e l'unica cosa è badare agli ip dai file di log e bannare quelli che realizzano ad esempio 50 connessioni al secondo per 10 secondi, o a intervalli regolari,e via dicendo.
ci tengo a ricordarti,che in genere i contratti di hosting,professionale o no, contano la quantità di dati scaricata dal tuo sito,e non credo ti convenga lasciare indiscriminatamente a tutti di prelevare mega di dati senza che a te torni qualcosa in termini di concreta crescita di numero di utenti.