io farei riferimento alla specifica google, anche se a prima lettura mi pare che quanto riportato nel link che hai postato possa funzionare.
https://developers.google.com/webma...obots_txt?hl=it
se vai al capitolo: "URL matching based on path values", ci sono esempi e le wildcard supportate ($, *) pare anche da Bing e Ask.
Nel caso che hai esposto:
Disallow: /index.php?dpr=registrazione&fpr=schedaprecompilata
blocca l'url, ma anche tutte quelle con parametri aggiuntivi. es /index.php?dpr=registrazione&fpr=schedaprecompilata &pag=4
Anche: Disallow: /index.php
blocca index.php, ma anche /index.php?etc=...
Non ho mai provato, ma dalla specifica sembra che usando la wildcard $ si possa ad esempio bloccare solo la index.php
es. Disallow: /index.php$
Combinando * e $ si possono ottenere regole più complesse.
Poi utilizzando le Allow e tenendo presente che la regola più specifica vince su quella meno specifica, si può ottenere una configurazione complessa del robots.txt
Però non tutti i motori sono tenuti a rispettare quelle wildcard e alcuni non supportano nemmeno le Allow.