Ciao A tutti,
Stiamo finendo un progetto sviluppato con wordpress nel quale abbiamo installato un pluge in per le traduzioni delle lingue.
A causa di questo pluge in adesso vorrei disabilitare via robots alcune pagine per evitare penalizzazioni perché alcune pagine risulterebbero duplicate.
Per esempio vorrei disabilitare la pagina www.miosito.com/pagina1/ il problema è che NON vorrei disabilitare tutta quella cartella poiché la pagina www.miosito.com/pagina1/pagina2/ dovrebbe risultare spiderizzata.
Vi chiedo come poter fare tutto ciò sul file robots.txt, possibile che la prima pagina in realtà sia
www.miosito.com/pagina1/index.php ma non si veda nella barra degli url?
Cosa mi dite?
Debba