Salve,
avendo su una dir. 1000 files, di cui 150 di essi iniziano
con "listino", cosa bisogna scrivere dentro robot.txt per escluderli dagli spider? Qualcosa tipo "Disallow: listino_*.php"?
Es:
/listino_aaaa.php
/listino_bbbb.php
/listino_cccc.php
/listino_dddd.php
/listino_eeee.php
....etc...etc...
Lo chiedo, poiche mi trovo con dei "doppioni" di files sul sito di cui alcuni sono già "rankati" (i files "listino_*.php) ed altri (quelli che vorrei adottare in futuro "categoria_*.php") non ancora.
Cancellando di sana pianta i vecchi "listino_*.php" comporterebbe la perdita del traffico che essi stessi stanno generando sul mio sito, finche i nuovi files "categoria_*.php" non saranno "rankati", prendendo ufficialmente il posto dei vecchi files.
Come accennato sopra pensavo che le soluzioni potrebbero essere 2:
-modificare il file robot.txt (inserendo qualcosa tipo "Disallow: listino_*.php"
-modificare i metatag di ciascun file che voglio escludere con qualcosa tipo "<meta content="noindex, follow" name="robots">"
-eventualmente tutte e due le soluzioni sopra indicate contemporaneamente
Al solito, rigrazio anticipatamente chi mi vorrà aiutare.

Rispondi quotando

