Visualizzazione dei risultati da 1 a 2 su 2
  1. #1

    Uso del robots.txt in un blog

    Sto ottimizzando un blog e dopo aver inserito un robots.txt che blocca l'accesso dello spider ai feed,ed altre pagine con url diverse (con "more" per esempio) , nella sitemap di google compiano più di mille file limitati nei confronti di circa 900 pagine indicizzate.
    Questo può causare penalizzazioni da parte di google?

  2. #2
    Non vedo estremi per penalizzazioni.
    Quando hai a che fare con pagine dinamiche il loro numero è virtualmente illimitato.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.