Scusate non mi ricordo la sintassi per bloccare (per una settimana) l'accesso dei motori di ricerca come Google tramite il robots.txt.
Me lo rinfrescate?
Grazie.
![]()
Scusate non mi ricordo la sintassi per bloccare (per una settimana) l'accesso dei motori di ricerca come Google tramite il robots.txt.
Me lo rinfrescate?
Grazie.
![]()
Ma esiste questa funzione nel file robots?
Io non ne ho mai sentito parlare.
Per una funzionalità simiole io conosco lo stato 503 di HTTP con la direttiva retry after... dovrebbe essere seo-friendly nel caso si voglia evitare di far indicizzare il contenuto provvisoriamente. Personalmente la uso per gestire brevi periodi di down dovuti alla manutenzione del sito, per una settimana non ho mai provato.
Per bloccare l'indicizzazione per un'ora, in PHP si fa così:
Codice PHP:header('HTTP/1.1 503 Service Temporarily Unavailable');
header('Retry-After: 3600');
Ma questo però blocca tutti, anche i visitatori e me, giusto?
Forse sarebbe meglio agire sul file htaccess?
(Funzione Deny...) ma è seo friendly?
Si, se non implementi dei filtri, tutti ricevono il codice 503... però se il sito serve comunque anche il contenuto, la pagina dovrebbe essere comunque visibile e navigabile. Da testare per conferma caso mai.
Ovviamente puoi filtrare l'invio del codice in base allo user agent... anche se in questi casi bisogna stare attenti al discorso del clocking.
Il Deny penso che serva un 403, quindi qualcosa di simile alla pagina non trovata. Non mi sembra una buona idea.
Ah, ecco, grazie.
La discussione nasce dal fatto che ricordavo qualcosa del genere ma ora ho capito che era solo per la sitemap in xml dove si può indicare al bot di ripassare entro tot tempo. Nel centro per webmaster di google c'è qualcosa a riguardo su cui intervenire?
Ok.
Non ricordo di aver mai visto niente del genere...Originariamente inviato da mondiali_2010
Nel centro per webmaster di google c'è qualcosa a riguardo su cui intervenire?![]()
inserire un disallow e poi toglierlo dopo una settimana?