Salve,
A fine aprile il googlebot non è riuscito a fare il crawl dell'ultimo post del mio blog ( www.efficacemente.com ), probabilmente a causa di un down del server, andando a generare un errore di robots.txt unreacheable.
Da quel giorno il googlebot si è dimenticato di me... tutto tranquillofino ad oggi, quando le visite da google sono crollate ed il blog è praticamente sparito dall'indice del motore di ricerca.
Utilizzando google webmaster tool ho provato ad inviare nuovamente la mia sitemap, ma nulla da fare, google non riesce ad accedervi, di seguito l'errore riscontrato:
"We encountered an error while trying to access your Sitemap. Please ensure your Sitemap follows our guidelines and can be accessed at the location you provided and then resubmit."
In realtà sia il file robots.txt sia la sitemap.xml sono facilmente accessibili:
www.efficacemente.com/sitemap.xml
www.efficacemente.com/robots.txt
Ma nulla da fare, google continua a non prenderle in considerazione!
Qualcuno ha qualche idea per risolvere il problema?
Grazie mille,
Andrea.

Rispondi quotando
non mi sbaglio.
