la domanda sorge spontanea... come ci si deve comportare?
creare tutte pagine ottimizzate per ogni motore che poi portano al sito (redirect insomma)NO

o ottimizzare un motore alla volta escudendo con il robots.txt gli spider dei motori in cui abbiamo ottenuto i risultati?? (non risulterebbe lento il procedimento???)NO

avete altre soluzioni? fai un sito "normale" tanto e impossibile seguire un bot ps- non fare mai diversi robotex...il robots.txt deve essere in un "SOLO" filo(txt)