Sto ottimizzando un blog e dopo aver inserito un robots.txt che blocca l'accesso dello spider ai feed,ed altre pagine con url diverse (con "more" per esempio) , nella sitemap di google compiano più di mille file limitati nei confronti di circa 900 pagine indicizzate.
Questo può causare penalizzazioni da parte di google?

Rispondi quotando