Buongiorno a tutti.
Qualche mese fa ho trasformato il mio sito che è composto da un'ottantina di pagine (una settantina generate da database) in questo modo

da www.MIODOMINIO.COM/catalogo.php?codice=01
da www.MIODOMINIO.COM/catalogo.php?codice=02
a
www.MIODOMINIO.COM/pippo.html
www.MIODOMINIO.COM/pluto.html
ecc ecc

e questo tramite rewrite di ogni singola pagina in .htaccess

il tutto ha funzionato bene, google ha indicizzato le pagine html e gli ha assegnato un PR, però ci sono stati anche lati negativi.

Innanzitutto il sito è scomparso da google images, pazienza, spero che verrà reiserito nella prossima indicizzazione (mi pare che google images le faccia ogni 6 mesi circa).

La cosa che proprio non sopporto è invece che non riesco in nessun modo a far eliminare le vecchie pagine php da google, mi trova tutte e due e quindi mi trova 150 pagine circa (col sito quasi interamente duplicato )! Ovviamente le pagine php non restituiscono errore 404, essendo sempre e comunque valide all'origine (per la stessa ragione non posso servirmi dei metatag).

Premetto che uso la sitemap e ho un file robots.txt in cui ho listato ogni singola pagina php col disallow e non ho ottenuto nulla, non so che altro fare!

ho letto che c'e' questo comando per rimuovere le pagine generate dinamicamente, da utilizzare nel file robots.txt:

User-agent: *
Disallow: /*?

secondo voi potrebbe funzionare meglio? E con le pagine

www.MIODOMINIO.COM/catalogo.php?codice=01

quale sarebbe il comando corretto da scrivere?
Qualche altra idea?

GRAZIE!