Pagina 1 di 2 1 2 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 13
  1. #1

    +pagine internet = LP più alta

    Ciao a tutti,

    raga secondo voi avere tante pagine interne al sito portano ad un'alta link pupolarity oppure per la LP vengono considerate solo pagine esterne al sito?

    Grazie.


  2. #2
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171


    se io avessi 4500 fratelli non sarei pieno di amici, ma vivrei in una famiglia numerosa.

    scherzi a parte, no i link interni prendono pr dalle pagine linkate esternamente.
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  3. #3
    no PR mi riferisco alla LP (link popularity) , c'è scritto.



  4. #4
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171
    -_- ho capito...
    ripeto spendendo qualche parola in piu (nota l'orario del post prima..)

    1) le pagine interne non danno link popularity. altrimenti sarebbe comodissimo fare un sito che autogeneri 500mila pagine.

    2) al massimo, le pagine interne concorrono alla divisione del pr passato dalle altre pagine linkate dall'esterno. (informazione aggiuntiva, che non è legata alla domanda, ma che vuole essere un corollario da prendere o da buttare, fate vobis)
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  5. #5
    Ma non ci sono delle matrici apposta per gestire i link interni di un sito in modo da aumentare il pr di una data pagina? almeno, è una delle cose che avevo appreso ad un corso. In sostanza: se vuoi migliorare il PR della pagina A, la pagina B e C devono linkare alla A e non viceversa. PIù o meno era così.

  6. #6
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171
    ora non so quanto il calcolo matriciale venga applicato in queste cosine, ma generalmente quando non so una cosa "specifica" cerco di allargarla e sfrondarla sino a farla diventare un problema puramente logico.

    LA link popularity, il numero di links inbound di un sito, è data dai link che vengono dall'esterno.

    Giriamo pagina.

    Ho un sito che parla dell'argomento X.
    Questo argomento verra sviscerato in X.1, X.2, ecc X.100.

    Come fa spesso notare Agoago, il sentore è che il num. di pagine che escono in SERP per un sito, sia regolato dal quanto vale quel sito per quell'argomento e dal numero di competitors.

    Mi spiego, o meglio riporto quanto dice lui (e io gli credooo io credo in luiiiii! ):
    Se un sito vale 100, e il mio vale 200, io avro diritto a piu pagine, qualora le avessi, in quella serp.

    Bene bene.. ho una SERP per la ricerca X. Il mio sito ha 450 pagine che ne parlano. Quali piazzare?
    Posso lasciar fare a GG, oppure posso creare una struttura che coinvogli COME dico io l'utenza per le ricerche.
    Ergo le pagine X.1.1 e X.1.2... X.1.10 linkeranno solo X.1, e non X.2

    Un po come dire "se proprio devi piazzarmi, mettici questa pagina".

    Questo è certamente utile, perche cmq sia se SO che sara QUELLA la pagina, tra le tante, a comparire per quella X ricerca potro strutturarla per benino, per il solo compito di "ospitare" i vagabondi del Net.

    Questo risponde un po alla domanda "ma perche mi compare in Serp QUESTA pagina e non la home/altro?"

    PS: il tutto è frutto di un delirio post-ennesima-rottura-display-portatile.
    Non mi assumo responsabilità.
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  7. #7
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954
    Evi|A|ivE grazie della fiducia!

    Nel frattempo ho coretto-migliorato la teoria del rapporto tra valore sito e pagine spiderizzate, che di fatto confermo.

    Credo fortemente che in base al valore del sito il bot stabilisca il numero di k mensili da spiderizzare e la frequanza della spiderizzazione del sito.

    Per esempio ipotizziamo un sito di news che vale 100 ed uno raramente aggiornato che valga sempre 100.

    Per entrambi i siti (ipotizziamo) che il motore stabilisca di spiderizzare nel mese 20 mega.

    Nel primo caso potrebbe leggere 20 volte la home di 50k del sito di news ed un altro tot di pagine interne fino a raggiungere un altro 10 mega di spiderizzazione.

    Nle secondo caso potrebbe passare solo 2 volte nel mese, una volta leggere 8 mega, al secondo passaggio 12 mega. Il numerio di pagine varia-dipende-continua fino al raggiungimento dei 20 mega complessivi.

    Pertanto il numero di pagine spiderizzate dipende indirettamente dal valore del sito e direttamente dal peso in k che sara' spiderizzato nel mese in base al valore del sito.

    Valore sito > valore k da spiderizzare > n. pagine spiderizzate.

    Se sito = 100 > 100k da spiderizzare > 3 pagine da 33k da spiderizzare, o 2 da 50k o 10 da 10k!

  8. #8
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171
    l'uovo di colombo... a pensarci prima

    Questo ragionamento va perfettamente d'accordo con il bisogno di risorse, che spesso mancano.

    Effettivamente il concetto non fa una grinza!
    Ed è diverso , pero , con il "piu vali piu pagine ti metto in serp".

    E dato che è molto credibile (se non in alternativa cmq in aggiunta al concetto iniziale) vale ancor di piu il consiglio "niente filmatoni flash" ^^
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  9. #9
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954
    Evi|A|ivE scrive:

    "Ed è diverso , pero , con il "piu vali piu pagine ti metto in serp"."

    Giustissimo, la dicotomia tra pagine nei db e pagine in serp e' fondamentale concettualmente.

    --------

    Tengo a precisare che l'idea originale dell'ottimizzazione del sito per favorire gli spider e' di Key, a Cesare cio' che e' di Cesare.

    -----

    Una piccola nota a margine.

    Msn ogni pagina che ti spiderizza te la mette (prima o poi) nelle sue serp, salvo ban.

    Le pagine, se non son perfette (perfette per lui) ovviamente non entrano nelle sue prime 10-20 posizioni per le query correlate.

    Se son fatte bene (nessuna o quasi dipendenza con-da backlink a tema o meno, ma dipendenza fortissima da come sono state scritte) scavalcano anche siti istituzionali per key pesantissime.

    Quando una pagina entra nei primi posti (stimo dalla prima posizione alla decima, forse ventesima o poco oltre) msn attua una sorta di controllo.

    Msn calcola-conta quanti click riceve quella pagina in base alla posizione assunta in serp dalla pagina stessa per le varie query per cui quella url-pagina e' competiva.

    Se la pagina-url risponde-corrisponde alle sue aspettative-attese per-di clik degli utenti verso quella pagina in serp, in base alla posizione data di quella pagina, allora la lascia in quella posizione o la fa salire, viceversa la penalizza spostandola in basso.

    Questo periodo di verifica attualmente dura, dai miei test, esattamente 17 giorni.

    ----------

    Il comando "site:" di msn spesso non funziona, fornisce risultati assurdi, ti dice che un sito ha 50k pagine presenti nel suo db quando invece quel sito ne e' formato, si e no, magari da 4000 in tutto...

    Inoltre msn ad oggi presenta (da miei test) un baco enorme nel valutare-pesare le pagine, lo riportero' pubblicamente in futuro se non lo correggeranno a breve, mi scuso ma per ora lo sfrutto personalmente a piu' non posso e non ne parlero' a breve per una terza volta.

    -------

    Msn, rispetto a g e y e' a mio avviso attualmente il peggiore tra i 3 principali motori occidentali, facile da attaccare e sfruttare lato seo.

    A differenza di y e g msn non ha ancora una tradizione consolidata in materia di algoritmi di sort filtrati, la mentalita'-calcolo del sort usato dal-nel meraviglioso sql microsoft non puo' essere sfruttata-adattata su db "sporchi".

    Tuttavia msn search ha potenzialita' micidiali, sia in termini di resa odierna per i seo, che di futuri suoi miglioramenti.

    A breve spero implementino il loro nuovo algoritmo per giudicare i link, lo hanno dichiarato e di certo manterranno la parola data.

    --------

    Se girate-leggete i post seo di tutto il mondo constaterete che vertono principalmente su g.

    I seo "nuovi" vedendo cio' pensano-ritengono che sia dovuto dal fatto che g porti-comporti, come motore, una schiacciante superiorita' in termini di accessi. La verita' e' che i seo di tutto il mondo credono di aver capito qualcosa sugli algoritmi di G, poco su msn, nulla sugli algoritmi di sort filtrati di yahoo.

    Ovviamente si discute di cosa si ritiene conoscere, fare la figura dei fessi non piace a nessuno, soprattutto pubblicamente.

    In futuro (breve) chi di mestriere sara' seo ragionera' finalmente a lungo su msn, per l'ennesima volta (di rimando) su g, poche o nessuna parola su yahoo.

    Yahoo e' forte di una tradizione di sort del web incomparabile, buona o cattiva che sia (ad oggi definiamola "dispettosa" per amor di patria).

    ---

    Paghero' una pizza 444 stagioni a chiunque sia in grado di (anche solo) ipotizzare come ragioni-lavori yahoo nel catalogare-valutare siti e pagine.

    Su quali principi si basino i suoi parametri di ban.

    Quale siano i tempi (ammesso che un valore t in questo caso esista o sia costante) di valutazione e/o rotazione dei suoi db.

    ---

    Concludo ricordando che il ban (motori, forum o altro che sia) nel virtuale corrisponde alla pena di morte nel reale, e che Guccini si permette di lanciare le monetine nel sociale e l'antisociale, "piccolo" capolavoro pubblicato quando nascevo.

    Vi ricordo che il Varzì replica su RaiNettunoSat2 il 30 agosto alle 14, Sartori dice che intelligente e' colui che sa riconoscere l'intelligenza altrui, lo stolto si basta.

    Nutritevi dal Varzì e fate dei motori un-il vostro tavolo a quattro dimensioni.

  10. #10
    @agoago

    Un altro parametro da valutare potrebbe essere la velocità del server: una cosa è se per spiderizzare 20 mega ci impiega 1 ora, un'altra se il server è lento e ci impiega 12 ore.

    Il valore del sito secondo me non è un valore fisso, ma cambia in base a molti fattori modificabili dal webmaster: backlinks, contenuti, server side, ecc ecc.

    Modificando questi fattori, si possono aumentare gli accessi su siti consolidati e stabili da anni.

    Ago, come la applichi la tua teoria del "valore del sito" su questo grafico del traffico di html.it triplicato da aprile in coincidenza della modifica del cms?

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.