Originariamente inviato da Evi|A|ivE
se una pagina non esiste, non po essere spiderizzata.
al massimo , magari, vuoi dire che sono ancora presenti?

Le pagine nuove hanno links corretti?

alle pagine vecchie assegna un 302 via .htaccess o codice nell'head (il come fare lo trovi in rete tramite google) che reindirizzi alle nuove pagine che trattan lo stesso argomento, o alla home qualora non vi siano pagine nuove corrispondenti.

Cosi facendo le mantieni in serp, e se uno clicca, viene reindirizzato, in maniera pulita, a cio che vuoi (home o nuova pagina).

Se vuoi farle eliminare dalle serp, eliminale dal sito e segnala la rimozione a questo indirizzo .

GG passera, gli verra ritornato un 404 e provvedera ad eliminarle dalle serp.


PS: disallow: / impedisce la spiderizzazione di tutte le pagine del dominio.
E' normale che le nuove non vengano prese.
disallow: /*? credo non sia corretto.

Le pagine non ci sono e ne sono sicuro ... al massimo l' unica cosa che potrebbe fare Google è seguire dei link esterni al mio sito .... ma continua a fare tanti scan e la cosa mi sembra strana... dalle statistiche del mio sito controllo le pagine che ha spiderizzato e provando a visualizzare le pagine spiderizzate mi restituisce la mia index, ma con URL dinamica seguira da Google Bot.
redirect 302 ??? Pensovo fosse il 301

Eliminazione tramite supporto già fatta ma nulla....

Per il disallow: /*? l'ho preso dalla documentazione di robots.txt



Ciao