Sul mio sito di sfondi il consumo di banda sta raggiungendo livelli preoccupanti (dovrei essere contento del fatto che va benissimo, ma 20 GB di banda al mese sono un bello sforzo per il server che lo ospita mi sa...).
Per ridurre il "carico" vorrei "nascondere" alcune cartelle allo spider di google che si occupa della cattura delle immagini.
Come devo impostare il robots.txt?
Grazie a chi mi darà una mano.![]()