Perfetto, grazie!
Secondo me quello che ha detto è vero in parte!
Dalla mia seppur breve esperienza, ho notato che Google è vero che comunque entra nelle pagine che sono state definite come Disallow nel robots.txt, ma non le indicizza!
Ho delle pagine, ad esempio, alle quali se provi ad eccedere senza inviare un form, restituiscono un errore e in questo caso, vedo che l'errore l'ha generato lo spider di google (indirizzo ip).
Questo sì, delle 70 e circa pagine che ho definito come Disallow non ne ha indicizzata nemmeno una, mentre ha indicizzato tutte quelle definite nel sitemap.xml in modo corretto!
Buona Seo, mi piace!
Anche a te,
Ciao!