anch'io sono interessato a questa cosa...
Stavo pensando di rifare completamente il mio sito, diciamo (tanto perchè mi gasa il nome) in stile Web 2.0
Avevo pensato alla possibilità di caricare le pagine, inviare i form, e fare tutta la navigazione in generale in Ajax.
Poi mi sono fermato a riflettere se gli spider dei motori di ricerca indicizzassero anche i contenuti caricati con ajax...
Secondo me no. Cioè lo spider analizza la pagina così com'è, non penso che esegua dei javascript.
Mi era venuta in mente una (mezza) soluzione.
Tipo, nei link con <a> si potrebbe mettere una cosa del genere
<a href="pagina.php" onClick="richiedi(this.href);">
Quindi mettere una funzione che blocchi il reindirizzamento al nuovo url, ma effettui il richiedi();
Ora ci sono due casi:
-se arriva un utente normale, il suo browser gli esegue il caricamento in AJAX dalla funzione richiedi();
-se arriva lo spider, va a caricare l'url pagina.php
Naturalmente pagina.php dovrebbe essere una versione del sito con un tipo di navigazione classica, non ajax.
Poi i link all'interno di pagina.php saranno sempre con il metodo sopra citato, così che lavorino bene sia l'utente che lo spider.
Potrebbe essere una buona soluzione?
si, c'è da lavorarci abbastanza attorno...però non direi che sia una cosa impossibile, no?
Aspetto commenti e suggerimenti
ciao!