Ciao a tutti, ho creato il robots.txt per impedire ai vari motori
di indicizzare alcune pagine sensibili.

mi è però venuto un dubbio...
io nel robots ho scritto righe del tipo:

Disallow: /registrazione/schedaprecompilata.php

Nel sito però la pagina schedaprecompilata.php non viene richiamata direttamente
ma viene "inclusa" all'interno di una pagina master, l'url che ne risulta è una cosa di questo tipo:

codice:
http://www.sito.it/index.php?dpr=registrazione&fpr=schedaprecompilata
la domanda perciò è questa...

- il modo in cui blocco l'indicizzazione è corretto?
o... dovrei scrivere in aggiunta anche

Disallow: /index.php?dpr=registrazione&fpr=schedaprecompilata

e ultima domanda...

- se faccio ad esempio

Disallow: /index.php

blocco anche tutti gli url con index.php indipendentemente dalle variabili get?
es /index.php?dpr=registrazione

o se faccio

Disallow: /index.php?dpr=registrazione&fpr=schedaprecompilata

blocco tutti gli url che coincidono indipendentemente contengano variabili get aggiuntive?
es /index.php?dpr=registrazione&fpr=schedaprecompilata &pag=4


grazie in anticipo a chiunque risponda.