Pagina 1 di 2 1 2 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 13
  1. #1
    Utente di HTML.it
    Registrato dal
    Apr 2004
    Messaggi
    508

    Google Sitemap Generator non prende tutte le URL come mai?

    Salve a tutti,
    ho installato questo tool ma ho problemi.
    Non prende tutte le URL, nemmeno dopo una notte intera con schedule ad 1 ora. Ho 3500 news e 240 reviews ma mi prende solo 225 url come mai?

    Se poi aggiungiamo il forum (che al momento ho filtrato) ovviamente sono 3000url in più


  2. #2
    Utente di HTML.it
    Registrato dal
    Apr 2004
    Messaggi
    508
    ecco cosa dice il CP:

    Webserver filter Running
    Number of collected URLs 0

    Log parser Running
    Time of most recent log process 2009-03-26 12:27:21
    Number of collected URLs 0

    eppure ho 1090 url nella sitemap

    Oltretutto quando clicco su "Include Sitemap URL in robots.txt" non mi edita il file robots.txt ed ho fatto io a manina. Ma come so oltretutto che sta pingando i vari motori per dargli i miei aggiornamenti?

    Non so più dove sbattere la testa!

  3. #3
    Moderatore di Motori di ricerca e webmarketing L'avatar di rigby76
    Registrato dal
    Oct 2005
    residenza
    Firenze
    Messaggi
    4,913
    Prova a usare un crawler, tipo gsitecrawler.
    estremizzo, banalizzo e polemizzo!

    Hai letto le FAQ sui Motori di Ricerca?

  4. #4
    Utente di HTML.it
    Registrato dal
    Apr 2004
    Messaggi
    508
    No grazie mi servirebbe uno script automatico da mettere sul server per pagine dinamiche come le mie

  5. #5
    Fattelo da te in php, è il metodo migliore... scansioni il db, costruisci gli url, li metti nei tag opportuni, aggiungi l'intestazione e un header per indicare il content-type.
    Solo il tempo che stai perdendo dietro quel coso, avresti già fatto da un pezzo.
    UtèñtE non ti dirà mai come trasformare l'argilla in marmo, ma se gli chiederai come progettare una simulazione con le bacche di mirto, ti risponderà: "Versane ancora!".

  6. #6
    Utente di HTML.it
    Registrato dal
    Apr 2004
    Messaggi
    508
    Non so programmare in php se no non userei questi script

  7. #7
    Siccome il nome è molto generico, chiariamo... utilizzi questo Google Sitemap Generator?

    Non l'ho mai usato, ma li c'è scritto che si basa sui log del server, sul traffico e sui file presenti nelle cartelle... di conseguenza se hai url dinamici non presenti nei log (ossia, senza visite negli ultimi tot giorni), non verranno inseriti.

    Non sai programmare in php, quindi presumo che per tutto sto lavoro (news, reviews, oltre che il forum), ti basi su un cms bell'e pronto, giusto?

    Se il cms ha una buona community di supporto, tipo joomla o wordpress (o phpbb per il forum), di sicuro cercando troverai un plugin per le sitemaps che funziona nel modo migliore possibile per il cms in uso...
    ...l'installazione di un plugin presumo che sai come si fa, in alcuni cms è semplicissima... se invece hai un cms più monolitico, troverai una mod, che è un elenco di istruzioni del tipo "cerca la riga, incollaci dopo questo", puoi comunque farlo anche senza conoscere il php se sei preciso.

    Forse un po' più laboriosa, ma almeno è una soluzione completa e definitiva.

    Cerca su google qualcosa tipo tuocms+sitemap+plugin o tuocms+sitemap+mod, poi se non capisci tutto chiedi una mano nella sezione cms... qui siamo già un po' ot.

    Se non trovi nulla invece... o t'affidi a qualcuno che te la sviluppi (ci vuole al peggio una giornata di lavoro) o ripieghi sulla soluzione che ti ha dato rigby.

    Buon lavoro.
    UtèñtE non ti dirà mai come trasformare l'argilla in marmo, ma se gli chiederai come progettare una simulazione con le bacche di mirto, ti risponderà: "Versane ancora!".

  8. #8
    Utente di HTML.it
    Registrato dal
    Apr 2004
    Messaggi
    508
    Grazie utente allora, si certo se attivo il Webserver filter mi prende SOLO le url visitate ma io ho anche attivato il log parser proprio per questo motivo.
    Non uso un CMS ho un coder che mi ha fatto il sito su miei indicazioni.


    ps si lo script è quello che hai linkato

  9. #9
    Spetta, secondo me stai confondendo sul generator... un log parser (stando all'etimologia) prende appunto le url visitate, questo è sicuro... mentre per webserver filter penso che intendi la funzione che cerca i file sul server, ma se hai pagine dinamiche, questo non te le trova... esempio: news.php?id=1 e news.php?id=2 sul server vedi solo news.php, non le 2 versioni che per l'utente sono 2 url distinte.

    Quanto al resto, mi lasci perplesso... un coder può fare siti statici, ma se mi parli di news, reviews, forum le strade son 2: o lo aggiorni ogni volta col coder (in questo caso la soluzione di rigby direi che non ti limita per nulla) o il coder ha sfruttato per conto suo un cms che comunque ti ritrovi in output.

    Scusa se ti sto dando consigli nel tuo caso inutili, ma ci son cose che do per scontate, avendo lavorato e vedendo lavorare sempre in un certo modo... se mi indichi il sito (qui senza il www o in pvt), e magari il coder, ci capiamo meglio.
    UtèñtE non ti dirà mai come trasformare l'argilla in marmo, ma se gli chiederai come progettare una simulazione con le bacche di mirto, ti risponderà: "Versane ancora!".

  10. #10
    Utente di HTML.it
    Registrato dal
    Apr 2004
    Messaggi
    508
    coder=programmatore
    Scusa il gergo. Beh a questo punto però mi serve uno script che prenda le pagine anche non visitate, perdo molto se no. Le mie url sono tutte del tipo /news/nomearticolo_news.html e così via.

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.