Analizzando un sito web, per caso mi sono imbattuto sul file robots.txt impostato da chi l'ha progettato. Le istruzioni sono le seguenti:

User-agent: GoogleBot
Disallow: /
Disallow: /cont/*
Allow: /cont/*Indir*
Allow: /cont/*Categ*

User-agent: *
Disallow: /


Ho verificato tramite il comando "site:" e su Google sembra che le pagine siano correttamente indicizzate, mentre se provo su Bing mi restituisce, come risultato, solo la Home Page...

Mi stavo chiedendo: ma questa impostazione non è sbagliata?

Le istruzioni:

User-agent: *
Disallow: /

non impediscono l'indizzazione di tutte le pagine?

Cosa ne pensate?

Grazie