Umor io ho una pagina che ha contenuti duplicati ed è sono in risultati supplementari. Molte delle mie pagine non sono duplicate ma sono penalizzate.
Io credo che dopo un po' che non si aggiorna un sito in html dinamico la cache si perde
Umor io ho una pagina che ha contenuti duplicati ed è sono in risultati supplementari. Molte delle mie pagine non sono duplicate ma sono penalizzate.
Io credo che dopo un po' che non si aggiorna un sito in html dinamico la cache si perde
Può essere, a me succede con i duplicati, dovrei provare a verificare questa cosa degli aggiornamenti.
Sarebbe un giusto modo per spiegare perchè i duplicati reggono 3-4 mesi senza problemi e poi vengono "bannati", forse perchè non sono aggiornati.
Ma perchè allora molte altre pagine che non aggiorno da mesi non perdono la cache ?
Statiche o dinamiche (le pagine dinamiche non supportano la data)? PR? Sitemap con date corrette di aggiornamento?
L'altra alternativa che mi viene in mente è che sia un metodo antispam. Cosa fa il webmaster che si vede penalizzare da google?
Che ne pensi?
http://blog.html.it/archivi/2005/10/...-posizioni.php
Potrebbe essere tecniche antispam, ci ho già pensato, ma
gli spammer seri a mio parere una volta generato un sito lo
lasciano li, quindi leverebbe il 90% di doorway e simili..
Per il resto non so, i siti che ho son pr 4 solitamente, lascio tutto invariato non cambio niente aggiungo e basta nuove pagine o modifico la home
No niente pagine duplicate, anche cercandole nel web... se vengono linkate dalla home la cache ritorna dopo qualche giorno... senza problemi. Ma non posso linkare dalla home migliaia di pagine, ci ho pensato in verità...[supersaibal]Originariamente inviato da uMoR
Ma non capisco una cosa, le vostre cache presentano solo
"
Url
pagine simili
"
In tal caso, dalla mia esperienza, credo che siate incappato nel filtro antiduplicazione di G, bel problema ci siamo finiti in tanti ! [/supersaibal]![]()
Umor tutto è possibile, però le pagine che sono state penalizzate nel mio sito appartengono a categorie così diverse tra loro che non hanno molti elementi in comune. Inoltre molte pagine non penalizzate appartengono alle stesse categorie. Infine ho ridotto l'uso di javascript e di elementi che potrebbero andare contro le linne guida di google.
Quello che mi viene in mente è che lo spider di google passava così raramente sul mio sito (un paio di volte al giorno) da farmi credere che google classificasse il mio sito come poco aggiornato.
Provate a fare degli aggiornamenti su quelle pagine, magari via php, e vediamo che succede
Avrei un paio di domanduzze da fare a proposito di questo link:
1 a cosa serve ?
2 cosa mi restituisce ?
3 perchè dovrei usarlo ?
4 perchè mi è utile sapere i suoi risultati?
5 voi lo usate ?
Grazie
Ciao Stefano,
come dicevo prima, questo tool non migliora assolutamente la vita e neanche il posizionamento o l'indicizzazione.E' solo un simpatico strumento dove poter verificare l'allineamento dei datacenter di google e vedere quante pagine in cache ha il tuo sito su ogni singolo datacenter.
![]()
ed è utile saperlo ???