la domanda sorge spontanea... come ci si deve comportare?
creare tutte pagine ottimizzate per ogni motore che poi portano al sito (redirect insomma)NO
o ottimizzare un motore alla volta escudendo con il robots.txt gli spider dei motori in cui abbiamo ottenuto i risultati?? (non risulterebbe lento il procedimento???)NO
avete altre soluzioni? fai un sito "normale" tanto e impossibile seguire un bot ps- non fare mai diversi robotex...il robots.txt deve essere in un "SOLO" filo(txt)

Rispondi quotando