Tempo fa si era discusso dell'importanza che un buon seo sapesse (e si occupasse) settare un server o comunque avesse delle buoni basi informatiche, anche se apparentemente "lontane" dalle tecnine di posizionamento.
Riporto in merito un esempio.
Un mio vecchio sito (6 anni) da alcuni anni aveva indicizzate in G circa 30.000 pagine. Pr6, sito .it, sito serio, costante come accessi e resa. Le avevo provate un po' tutte, ma senza grossi risultati.
10 giorni preso dalla sconforto ho messo mano al file http.conf del server web Apache e ne ho modificato alcuni valori, una cosa del genere (che mi sembrava andasse bene per il mio sito, poi ogni server o sito ha la sua storia):
Timeout 250
MaxKeepAliveRequests 140
KeepAliveTimeout 10
MinSpareServers 16
MaxSpareServers 32
StartServers 40
MaxClients 1024
MaxRequestsPerChild 60
Beh, tempo una settimana sono passato su G dalle storiche 30 mila a 35 mila. Dopo 3 anni con sempre le stesse 30 mila pagine indicizzate (il sito ne conta un 42.000 in totale spiderizzabili).
Questo discorso non centra nulla con "il valore del server" discusso nei post precedenti che e' tutta un altra cosa, ma semplicemente dimostra che se uno spider fa fatica ad indicizzare le pagine di un sito allora il sito sara' penalizzato.
Ora molti si chiederanno: hai aumentato, con 5000 pagine in piu' indicizzate, gli accessi da G?
Risposta: manco mezzo!
Questo a mio giudizio sempre per la famosa teoria che il valore del sito corrispondera' al numero di accessi ricevuti e non al numero di pagine indicizzate ecc ecc.