Visualizzazione dei risultati da 1 a 3 su 3
  1. #1

    disallow di una pagina in robots.txt

    salve, ho questo robots.txt

    User-agent: *
    Disallow: /cgi-bin/
    Disallow: /tmp/
    Disallow: /webmaster/
    Disallow: /indexproducts.php




    se però controllo site:mysite.com su google, la pagina indexproducts.php?cx=ffdasfdssfd etc salta fuori.

    Come mai ?
    come faccio a dirgli di non prendere questa pagina ?

    grazie.

  2. #2
    Se l'ha già presa oramai è in cache, se la pagina non esiste più bloccarla con il robots non ha senso perché rimane cmq in cache, anzi dovrebbe congelartela alla versione che ha salvato... prova con la rimozione url.

  3. #3
    no ma la pagina esiste, soltanto che non voglio che venga presa.. e quel robots.txt c'era sin dall'inizio, prima che la pagina venisse presa.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.