io farei riferimento alla specifica google, anche se a prima lettura mi pare che quanto riportato nel link che hai postato possa funzionare.

https://developers.google.com/webma...obots_txt?hl=it

se vai al capitolo: "URL matching based on path values", ci sono esempi e le wildcard supportate ($, *) pare anche da Bing e Ask.

Nel caso che hai esposto:

Disallow: /index.php?dpr=registrazione&fpr=schedaprecompilata

blocca l'url, ma anche tutte quelle con parametri aggiuntivi. es /index.php?dpr=registrazione&fpr=schedaprecompilata &pag=4

Anche: Disallow: /index.php
blocca index.php, ma anche /index.php?etc=...

Non ho mai provato, ma dalla specifica sembra che usando la wildcard $ si possa ad esempio bloccare solo la index.php

es. Disallow: /index.php$

Combinando * e $ si possono ottenere regole più complesse.
Poi utilizzando le Allow e tenendo presente che la regola più specifica vince su quella meno specifica, si può ottenere una configurazione complessa del robots.txt

Però non tutti i motori sono tenuti a rispettare quelle wildcard e alcuni non supportano nemmeno le Allow.