Dato che i due siti usano key diverse non è facile trarre conclusioni.

I due siti vengono visitati ed aggiornati dallo spider di Google con la stessa frequenza o il sito con più pagine è stato quasi abbandonato e si ritrova moltissime pagine "Risultati supplementari"?

Credo sia più esatto parlare di penalizzazioni e non di distribuzioni degli accessi.

Sarebbe interessante capire se arrivati ad un certo numero di pagine interviene un algoritmo di controllo diverso, più severo.

E' meglio creare un sito con poche migliaia di pagine o un grosso sito sperando nel buoncuore di Google?

Verrà il tempo che le pagine con url fittizia saranno fortemente penalizzate? (mi riferisco alle url dinamiche rese statiche con artefizi).

P.S.
Webcarlo perchè non raccogli il contenuto del tuo sito in una cinquantina di pagine, anzichè creare una pagina per ogni frase?