spiders.txt chi di voi ha esperienza nellúsarlo?...potrebbe essere una rivoluzione nel posizionamento?anche con GG se risparmia di farsi i rally, premia?
Lo so´in ITALIA e nuovo...ma almeno uno ci sara`????
spiders.txt chi di voi ha esperienza nellúsarlo?...potrebbe essere una rivoluzione nel posizionamento?anche con GG se risparmia di farsi i rally, premia?
Lo so´in ITALIA e nuovo...ma almeno uno ci sara`????
mmmmmmmmmmmmmmappinnnn...
key spiders.txt è soltanto un elenco degli spider per non creare una sessione per essi..
lo usano maggiormente dei CMS come OSCommerce, qualche volta anche PHPShop ecc per facilitare la indicizzazione delle pagine..
![]()
esatto grin.[supersaibal]Originariamente inviato da grin
key spiders.txt è soltanto un elenco degli spider per non creare una sessione per essi..
lo usano maggiormente dei CMS come OSCommerce, qualche volta anche PHPShop ecc per facilitare la indicizzazione delle pagine..
[/supersaibal]
Questo è il contenuto del file spiders.txt della vecchia contribuzione OsCommerce:
$Id: spiders.txt,v 1.2 2003/05/05 17:58:17 dgw_ Exp $
almaden.ibm.com
appie 1.1
architext
ask jeeves
asterias2.0
augurfind
baiduspider
bannana_bot
bdcindexer
crawler
crawler@fast
docomo
fast-webcrawler
fluffy the spider
frooglebot
geobot
googlebot
gulliver
henrythemiragorobot
ia_archiver
infoseek
kit_fireball
lachesis
lycos_spider
mantraagent
mercator
moget/1.0
muscatferret
nationaldirectory-webspider
naverrobot
ncsa beta
netresearchserver
ng/1.0
osis-project
polybot
pompos
scooter
seventwentyfour
sidewinder
sleek spider
slurp/si
slurp@inktomi.com
steeler/1.3
szukacz
t-h-u-n-d-e-r-s-t-o-n-e
teoma
turnitinbot
ultraseek
vagabondo
voilabot
w3c_validator
zao/0
zyborg/1.0
Ora è stato rilasciato un aggiornamento
Molti sistemi CMS, e in particolare quelli sviluppati in PHP che fanno uso di sessioni, attraverso l'identificazione dello spider evitano la creazione di una nuova sessione per essi. Uso tipico in sistemi di e-commerce è quello di non permettere allo spider di "effettuare un ordine".[supersaibal]Originariamente inviato da rinzi
come si usa, a cosa serve?? [/supersaibal]
questo lo sapevo...
so pure cose lo puoi mettere x htacess o x robotex, la mia idea era altro .
Escludere a GG parole come carrello o carte di credito...escludere cose che a GG non piace per "posizionarti" e se gli fai risparmiare "benzina" lui ti premia
---------------------------------------------------
x il robotex consiglio
---------------------------------------------------
User-agent: WebZip
Disallow: /
User-agent: larbin
Disallow: /
User-agent: b2w/0.1
Disallow: /
User-agent: psbot
Disallow: /
User-agent: Python-urllib
Disallow: /
User-agent: NetMechanic
Disallow: /
User-agent: URL_Spider_Pro
Disallow: /
User-agent: CherryPicker
Disallow: /
User-agent: EmailCollector
Disallow: /
User-agent: EmailSiphon
Disallow: /
User-agent: WebBandit
Disallow: /
User-agent: EmailWolf
Disallow: /
User-agent: ExtractorPro
Disallow: /
User-agent: CopyRightCheck
Disallow: /
User-agent: Crescent
Disallow: /
User-agent: SiteSnagger
Disallow: /
User-agent: ProWebWalker
Disallow: /
User-agent: CheeseBot
Disallow: /
User-agent: LNSpiderguy
Disallow: /
User-agent: ia_archiver
Disallow: /
User-agent: ia_archiver/1.6
Disallow: /
User-agent: Teleport
Disallow: /
User-agent: TeleportPro
Disallow: /
User-agent: MIIxpc
Disallow: /
User-agent: Telesoft
Disallow: /
User-agent: Website Quester
Disallow: /
User-agent: moget/2.1
Disallow: /
User-agent: WebZip/4.0
Disallow: /
User-agent: WebStripper
Disallow: /
User-agent: WebSauger
Disallow: /
User-agent: WebCopier
Disallow: /
User-agent: NetAnts
Disallow: /
User-agent: Mister PiX
Disallow: /
User-agent: WebAuto
Disallow: /
User-agent: TheNomad
Disallow: /
User-agent: WWW-Collector-E
Disallow: /
User-agent: RMA
Disallow: /
User-agent: libWeb/clsHTTP
Disallow: /
User-agent: asterias
Disallow: /
User-agent: httplib
Disallow: /
User-agent: turingos
Disallow: /
User-agent: spanner
Disallow: /
User-agent: InfoNaviRobot
Disallow: /
User-agent: Harvest/1.5
Disallow: /
User-agent: Bullseye/1.0
Disallow: /
User-agent: Mozilla/4.0 (compatible; BullsEye; Windows 95)
Disallow: /
User-agent: Crescent Internet ToolPak HTTP OLE Control v.1.0
Disallow: /
User-agent: CherryPickerSE/1.0
Disallow: /
User-agent: CherryPickerElite/1.0
Disallow: /
User-agent: WebBandit/3.50
Disallow: /
User-agent: NICErsPRO
Disallow: /
User-agent: Microsoft URL Control - 5.01.4511
Disallow: /
User-agent: DittoSpyder
Disallow: /
User-agent: Foobot
Disallow: /
User-agent: WebmasterWorldForumBot
Disallow: /
User-agent: SpankBot
Disallow: /
User-agent: BotALot
Disallow: /
User-agent: lwp-trivial/1.34
Disallow: /
User-agent: lwp-trivial
Disallow: /
User-agent: BunnySlippers
Disallow: /
User-agent: Microsoft URL Control - 6.00.8169
Disallow: /
User-agent: URLy Warning
Disallow: /
User-agent: Wget/1.6
Disallow: /
User-agent: Wget/1.5.3
Disallow: /
User-agent: Wget
Disallow: /
User-agent: LinkWalker
Disallow: /
User-agent: cosmos
Disallow: /
User-agent: moget
Disallow: /
User-agent: hloader
Disallow: /
User-agent: humanlinks
Disallow: /
User-agent: LinkextractorPro
Disallow: /
User-agent: Offline Explorer
Disallow: /
User-agent: Mata Hari
Disallow: /
User-agent: LexiBot
Disallow: /
User-agent: Web Image Collector
Disallow: /
User-agent: The Intraformant
Disallow: /
User-agent: True_Robot/1.0
Disallow: /
User-agent: True_Robot
Disallow: /
User-agent: BlowFish/1.0
Disallow: /
User-agent: JennyBot
Disallow: /
User-agent: MIIxpc/4.2
Disallow: /
User-agent: BuiltBotTough
Disallow: /
User-agent: ProPowerBot/2.14
Disallow: /
User-agent: BackDoorBot/1.0
Disallow: /
User-agent: toCrawl/UrlDispatcher
Disallow: /
User-agent: WebEnhancer
Disallow: /
User-agent: suzuran
Disallow: /
User-agent: VCI WebViewer VCI WebViewer Win32
Disallow: /
User-agent: VCI
Disallow: /
User-agent: Szukacz/1.4
Disallow: /
User-agent: QueryN Metasearch
Disallow: /
User-agent: Openfind data gathere
Disallow: /
User-agent: Openfind
Disallow: /
User-agent: Xenu's Link Sleuth 1.1c
Disallow: /
User-agent: Xenu's
Disallow: /
User-agent: Zeus
Disallow: /
User-agent: RepoMonkey Bait & Tackle/v1.01
Disallow: /
User-agent: RepoMonkey
Disallow: /
User-agent: Microsoft URL Control
Disallow: /
User-agent: Openbot
Disallow: /
User-agent: URL Control
Disallow: /
User-agent: Zeus Link Scout
Disallow: /
User-agent: Zeus 32297 Webster Pro V2.9 Win32
Disallow: /
User-agent: Webster Pro
Disallow: /
User-agent: EroCrawler
Disallow: /
User-agent: LinkScan/8.1a Unix
Disallow: /
User-agent: Keyword Density/0.9
Disallow: /
User-agent: Kenjin Spider
Disallow: /
User-agent: Iron33/1.0.2
Disallow: /
User-agent: Bookmark search tool
Disallow: /
User-agent: GetRight/4.2
Disallow: /
User-agent: FairAd Client
Disallow: /
User-agent: Gaisbot
Disallow: /
User-agent: Aqua_Products
Disallow: /
User-agent: Radiation Retriever 1.1
Disallow: /
User-agent: Flaming AttackBot
Disallow: /
User-agent: Oracle Ultra Search
Disallow: /
User-agent: MSIECrawler
Disallow: /
User-agent: PerMan
Disallow: /
User-agent: searchpreview
Disallow: /
-----------------------------------------------------------
voi lo fate?? si ono???
mmmmmmmmmmmmmmappinnnn...
Se apri delle sessioni per ogni visitatore ti conviene avere un elenco dei spiders che ti interessano (x il posizionamento) e quindi leggere quel file e se user-agent coincide non aprire la sessione..[supersaibal]Originariamente inviato da rinzi
come si usa, a cosa serve?? [/supersaibal]
Si sa che i spider non indicizzano le pagine del tipo: index.php?sessionid=HGDgsDFZFSeZSZEW8565DFSE64
key e cosa c'entra allora spiders.txt
?
infatti grin, la tua domanda è legittima.[supersaibal]Originariamente inviato da grin
key e cosa c'entra allora spiders.txt
? [/supersaibal]
@key: non è con spiders.txt che ottieni quello che vuoi. Con spiders.txt eviti a Google di farsi il giro nel tuo e-commerce. Non parlo ovviamente delle schede prodotto, ma gli eviti di fare il "click" su add to cart.Escludere a GG parole come carrello o carte di credito...escludere cose che a GG non piace per "posizionarti" e se gli fai risparmiare "benzina" lui ti premia![]()
Stiamo dicendo la stessa cosa?