Pagina 1 di 2 1 2 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 12

Discussione: crawlando....

  1. #1

    crawlando....

    Salve a Tutti!

    leggendo un post (ora non ricordo più di preciso quale...sorry) ho letto una frase del tipo: "credo che tutti SEO ormai crawlano i siti"...ora al di la del fatto che forse non era proprio così la frase.... ma nello specifico...cosa significa crawlare un sito? io sono arrivato a 2 possibili conclusioni: 1) significa attuare strategie per farlo indicizzare; 2) i SEO usano un software che fa non so cosa...


    mi potete gentilmente spiegare cosa significa?



    grazie!

  2. #2
    Beh, non mi è molto chiaro cosa vuoi dire, comunque i crowler sono software che caricano il contenuto delle pagine web.

    Sulla base di questo ragionamento tendo a pensare che il SEO analizzi il codice di pagine di altri siti web...

  3. #3
    i crawler girano le pagine e ne analizzano il contenuto e lo registrano...
    Parafarmacia online, tantissimi prodotti tutti in un click

  4. #4

    Re: crawlando....

    Originariamente inviato da srg

    leggendo un post (ora non ricordo più di preciso quale...sorry) ho letto una frase del tipo: "credo che tutti SEO ormai crawlano i siti"...
    anche io mi sono chiesto il significato quando ho letto quella parola, ossia cosa intedesse in termini SEO, visto che il significato generico e la funzione dei crawler dovrebbe essere ben chiaro.
    Ma sinceramente non ho capito cosa intedesse.

    Comunque il thread è
    questo

    mentre una definizione da wikipedia di crawler è
    qui

  5. #5
    Che spavento, temevo di aver tralasciato un nuovo concetto SEO, invece si tratta solo di qualcuno che si diverte ad usare (male) parole con altri significati...
    Fiiuuu! :-)

  6. #6
    crawlando si impara

    non sto ad annoiarvi con dettagli inutili....i crawler o spider sono dei programmi che girano la rete a caccia di URL da leggere e mettere sul proprio HD....

    quello che intendevo dire nell'altro post è che un buon SEO deve analizzare le pagine che sono in testa alle SERP, altrrimenti non capirà mai cosa fare e come farlo.....

    è questo che io intendo con "approccio matematico"....ne è nata una discussione su chi sia migliore, un approccio umanistico o matematico....ritengo che siano metodi molto simili....la differenza di fondo sta nel fatto che l'approccio umanistico si basa sulla convinzione che i motori implementano algoritmi tali da far emergere i siti che soddisfano gli utenti, quindi partendo da cosa un utente vuole dalla rete si può supporre quali parametri tra quelli noti i motori prendono più o meno in considerazione....l'altro metodo è quello matematico, ossia si parte da una conoscenza di base dell'IR e quindi di quali algoritmi esistono per classificare le informazioni per poi arrivare tramite crawling e analisi delle risorse che occupano posizioni prominenti nelle SERP a tirare delle conclusioni circa gli algoritmi implementati e i parametri usati.....

    purtroppo non vorrei spaventare ulteriormente Blade, però, questo sistema è usato da tutti coloro che fanno SEO ad un certo livello, lo usa il famosissimo Dave Naylor, lo usano le grandi SEO agency d'oltreoceano e anche quelle nostrane....fare SEO a naso o ad intuito non è esattamente il modo migliore di lavorare....comunque.....

    la risposta alla domanda di srg è che il crawling consiste nel leggere i contenuti a cui puntano determinati URL ( scaricare le pagine web ) per poi analizzarli ..... se volete sapere qual'è il metodo migliore per creare un accrocchio simile, vi dico che PHP ( oppure Python, Perl o Ruby ) e la fantastica libreria CUrl

  7. #7
    Utente di HTML.it
    Registrato dal
    Jan 2001
    Messaggi
    1,369
    Tempo fa abbiamo avviato una ricerca per sviluppare un motore di ricerca. Siamo partiti dallo sviluppo di un analizzatore. Purtroppo ci siamo fermati subito di fronte ai test perché i tempi di analisi del programmino VB di fronte a migliaia di documenti diventavano molto lunghi e richiedevano più PC in azione contemporaneamente. Il crawler di per sè non é difficile farlo, ma il difficile sta nel farlo in modo che "impari" cosa prendere e cosa no e in quali tempi a seconda dei documenti. Un domani forse il progetto riprenderà...chissà

  8. #8
    Originariamente inviato da alvi2000
    Tempo fa abbiamo avviato una ricerca per sviluppare un motore di ricerca. Siamo partiti dallo sviluppo di un analizzatore. Purtroppo ci siamo fermati subito di fronte ai test perché i tempi di analisi del programmino VB di fronte a migliaia di documenti diventavano molto lunghi e richiedevano più PC in azione contemporaneamente. Il crawler di per sè non é difficile farlo, ma il difficile sta nel farlo in modo che "impari" cosa prendere e cosa no e in quali tempi a seconda dei documenti. Un domani forse il progetto riprenderà...chissà
    parli di Teecno?

  9. #9
    Utente di HTML.it
    Registrato dal
    Jan 2001
    Messaggi
    1,369
    no no nulla di pubblicato online. Eravamo in fase embrionale.

  10. #10
    Originariamente inviato da paolino_delta_t
    crawlando si impara

    non sto ad annoiarvi con dettagli inutili....i crawler o spider sono dei programmi che girano la rete a caccia di URL da leggere e mettere sul proprio HD....

    quello che intendevo dire nell'altro post è che un buon SEO deve analizzare le pagine che sono in testa alle SERP, altrrimenti non capirà mai cosa fare e come farlo.....

    è questo che io intendo con "approccio matematico"....ne è nata una discussione su chi sia migliore, un approccio umanistico o matematico....ritengo che siano metodi molto simili....la differenza di fondo sta nel fatto che l'approccio umanistico si basa sulla convinzione che i motori implementano algoritmi tali da far emergere i siti che soddisfano gli utenti, quindi partendo da cosa un utente vuole dalla rete si può supporre quali parametri tra quelli noti i motori prendono più o meno in considerazione....l'altro metodo è quello matematico, ossia si parte da una conoscenza di base dell'IR e quindi di quali algoritmi esistono per classificare le informazioni per poi arrivare tramite crawling e analisi delle risorse che occupano posizioni prominenti nelle SERP a tirare delle conclusioni circa gli algoritmi implementati e i parametri usati.....

    purtroppo non vorrei spaventare ulteriormente Blade, però, questo sistema è usato da tutti coloro che fanno SEO ad un certo livello, lo usa il famosissimo Dave Naylor, lo usano le grandi SEO agency d'oltreoceano e anche quelle nostrane....fare SEO a naso o ad intuito non è esattamente il modo migliore di lavorare....comunque.....

    la risposta alla domanda di srg è che il crawling consiste nel leggere i contenuti a cui puntano determinati URL ( scaricare le pagine web ) per poi analizzarli ..... se volete sapere qual'è il metodo migliore per creare un accrocchio simile, vi dico che PHP ( oppure Python, Perl o Ruby ) e la fantastica libreria CUrl

    veramente molto interessante...ma queste cose, purtroppo, data la recente introduzione di me medesimo in questo fantastico mondo, non le conosco...

    hai (avete) fonti da cui posso informarmi meglio, per capire come funzionano e come utilizzarle?


    grazie!

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.