Visualizzazione dei risultati da 1 a 4 su 4
  1. #1
    Utente di HTML.it
    Registrato dal
    Dec 2005
    Messaggi
    1,486

    Indicizzato e penalizzato

    Ho un blog fatto con WP su cui ho installato allinoneseopack. Ho ottimizzato e posizionato svariati blog fatti in WP tra quelli miei o di miei clienti e non ho mai avuto problemi.
    Su questo mi capita una situazione a dir poco strana:
    - sparito dalle serp per tutte le keyword
    - col comando site trovo indicizzate anche le pagine /tag/...

    Tramite allinoneseopack ho inserito il noindex su ogni pagina /tag/ ed ho anche inserito il robots.txt che ha queste righe
    User-agent: *
    Disallow: /tag/
    Disallow: /page/

    Eppure sono indicizzate...

    Il comando site mi ritorna 46 pagine ma facendo click per vedere anche quelle omesse passiamo a 64, perciò ben 18 che sono state indicizzate e risultano duplicate. 18 su 64 corrisponde quasi al 30%, percentuale molto alta.

    Considerando che è l'unica ragione che trovo ovvia per una simile penalizzazione in quanto non è stata adottata alcuna strategia black ma solo un'ottimizzazione che non si avvicina nemmeno alla sovraottimizzazione ed è stato fatto un po' di inserimento in varie directory, suppongo che il motivo della penalizzazione siano le pagine doppie, non vedo altre ragioni.

    Cosa mi consigliate di fare?
    Perché Google ha indicizzato anche le pagine /tag/ che sono bloccate sia dal meta robots che dal file robots.txt?

  2. #2
    Moderatore di Motori di ricerca e webmarketing L'avatar di rigby76
    Registrato dal
    Oct 2005
    residenza
    Firenze
    Messaggi
    4,913
    Ma il robots.txt l'hai inserito prima che il sito sia stato letto da Google la prima volta? Considera che per via del ping, Google viene notificato della presenza del blog non appena inizi a inserire contenuti.

    Nei risultati relativi alle pagine tag, Google mostra la cache? Con che data?

    Secondo me se fai delle verifiche da webmastertools, vedendo che robots ha rilevato, facendo dei test per le pagine dei tag per vedere se le considera bloccate o no, ed infine richiedendo la rimozione di quelle pagine, dovresti riuscire a capirne di più.
    estremizzo, banalizzo e polemizzo!

    Hai letto le FAQ sui Motori di Ricerca?

  3. #3
    Utente di HTML.it
    Registrato dal
    Dec 2005
    Messaggi
    1,486
    Ho rimosso tutte le url (/tag/) che producevano contenuti duplicati.
    Tali url non ci sono ne sulla mappa del sito html ne su quella xml.
    Altre cose non ne vedo...

    Se il problema era questo, entro quanto tempo dovrei uscire dalla penalizzazione?

  4. #4
    Moderatore di Motori di ricerca e webmarketing L'avatar di rigby76
    Registrato dal
    Oct 2005
    residenza
    Firenze
    Messaggi
    4,913
    Hai chiesto la rimozione delle pagine tramite il google webmaster tools? Non ti so dire tempi perchè la situazione cambi, sono impredicibili secondo me. In ogni caso, io continuerei con le attività SEO (creazione di nuovi contenuti e link building) e terrei monitorata la situazione.
    estremizzo, banalizzo e polemizzo!

    Hai letto le FAQ sui Motori di Ricerca?

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.