ciao....nel mio portale nella directory principale ho inserito il file robots.txt con all'interno scritto:

User-agent: *
Disallow: /

vorrei sapere se il mio ragionamento è giusto.....scrivendo queste 2 righe lo spider non dovrebbe memorizzare le mie pagine nella sua cache.....visto che le pagine del portale saranno sempre aggiornate essendo dinamiche....il risultato della ricerca dovrebbe far vedere sempre le pagine con contenuti aggiornati.....o link nuovi aggiornati.......

è giusto il mio ragionamento?
Se è giusto è vantaggioso o svantaggioso?

GRAZIE