Visualizzazione dei risultati da 1 a 2 su 2
  1. #1

    evitare di loggare gli spiders

    ciao, è la mia "prima volta" in questa sezione del forum..
    ho un problema specifico sui motori di ricerca: io faccio loggare da uno script in perl tutti i miei visitatori, ma ovviamente non voglio includervi gli spiders. C'è un modo alternativo a quello di usare lo user-agent o avere un db degli indirizzi dell'ip?? cioè, c'è qualcos'altro di DIVERSO tra un browser ed uno SPIDER??
    Grazie,
    Antonello
    Antonello
    http://www.lobianco.org/antonello
    http://www.ilforestale.org

    Come va? "/usr/bin, /usr/bin!"

  2. #2
    C'è un modo alternativo a quello di usare lo user-agent o avere un db degli indirizzi dell'ip?
    No.

    Ma perché non puoi usare l'user-agent o l'indirizzo IP, per identificarli?


    Aggiunto: molti spider si possono riconoscere perché prelevano il file robots.txt, ma non è una regola generale.
    E' ARRIVATO! Usi trucchi che i motori potrebbero ritenere spam? Scoprilo con lo Spam Detector v1.1
    Guida approfondita alla visibilità dei siti sui motori: www.motoricerca.info

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.