[supersaibal]Originariamente inviato da key
la domanda sorge spontanea... come ci si deve comportare?
creare tutte pagine ottimizzate per ogni motore che poi portano al sito (redirect insomma)NO

o ottimizzare un motore alla volta escudendo con il robots.txt gli spider dei motori in cui abbiamo ottenuto i risultati?? (non risulterebbe lento il procedimento???)NO

avete altre soluzioni? fai un sito "normale" tanto e impossibile seguire un bot ps- non fare mai diversi robotex...il robots.txt deve essere in un "SOLO" filo(txt) [/supersaibal]
A dire in vero nel web si trovano decine di aziende che promettono ottimizzazioni mirate per ogni motore e/o spider.
Sinceramente lo trovo un lavoro disumano forse addirittura impossibile, tranne a costo di far moltiplicare a dismisura i costi. Insomma, si potranno mai ottimizzare decine di pagine per ciascuna parola chiave, per ciscun motore? Esempio estremo: 30 pagine, 30 parole chiave, 8 motori: 30x30x8=7.200 ottimizzazioni!