Buongiorno a tutti.
Qualche mese fa ho trasformato il mio sito che è composto da un'ottantina di pagine (una settantina generate da database) in questo modo
da www.MIODOMINIO.COM/catalogo.php?codice=01
da www.MIODOMINIO.COM/catalogo.php?codice=02
a
www.MIODOMINIO.COM/pippo.html
www.MIODOMINIO.COM/pluto.html
ecc ecc
e questo tramite rewrite di ogni singola pagina in .htaccess
il tutto ha funzionato bene, google ha indicizzato le pagine html e gli ha assegnato un PR, però ci sono stati anche lati negativi.
Innanzitutto il sito è scomparso da google images, pazienza, spero che verrà reiserito nella prossima indicizzazione (mi pare che google images le faccia ogni 6 mesi circa).
La cosa che proprio non sopporto è invece che non riesco in nessun modo a far eliminare le vecchie pagine php da google, mi trova tutte e due e quindi mi trova 150 pagine circa (col sito quasi interamente duplicato)! Ovviamente le pagine php non restituiscono errore 404, essendo sempre e comunque valide all'origine (per la stessa ragione non posso servirmi dei metatag).
Premetto che uso la sitemap e ho un file robots.txt in cui ho listato ogni singola pagina php col disallow e non ho ottenuto nulla, non so che altro fare!
ho letto che c'e' questo comando per rimuovere le pagine generate dinamicamente, da utilizzare nel file robots.txt:
User-agent: *
Disallow: /*?
secondo voi potrebbe funzionare meglio? E con le pagine
www.MIODOMINIO.COM/catalogo.php?codice=01
quale sarebbe il comando corretto da scrivere?
Qualche altra idea?
GRAZIE!
![]()