Pagina 1 di 4 1 2 3 ... ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 35

Discussione: Anzianita' sito per G.

  1. #1
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954

    Anzianita' sito per G.

    Segue... se riesco a far visuallizare l'immagine, dall'anteprima non ci rirsco.
    Immagini allegate Immagini allegate

  2. #2
    Utente di HTML.it L'avatar di fra_975
    Registrato dal
    Jun 2003
    Messaggi
    390

    2 domande

    per vedere si vede, ma quali sono le unità di misura delle ascisse e delle ordinate?

    sono dati che hai raccolto tu nel tempo?
    09ottobre2005 ciao Anna

  3. #3
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954
    Ce l'ho fatta, finalmente.
    Interessante questa immagine.

    E' il grafico delle pagine viste degli utenti che provengono da G su un mio sito serissimo, praticamente istituzionale a livello italiano, almeno per l'argomento che tratta (piccolo).

    Ora il sito e' vecchiotto, almeno un 4 o 5 anni di anzianita' ed ho graficato (che brutta parola graficare, ma esiste?) gli ultimi 600 giorni.

    Premessa importantissima:

    Il sito in questione e' abbandonato a se stesso, non lo rinnova nessuno da anni.

    Bene, come potete vedere e' passato di colpo da una media di 1000 pagine visualizzate ad una media di circa 4500 pagine viste al giorno, per poi passare, dopo circa un anno (un anno in piu' di anzianita', da 4 a 5) da 4500 a 6000 pagine viste di media.

    Ovviamente non e' che il sito sia diventato improvvisamente piu' interessante, ma sono aumentati gli unici, senza che nessuno abbia modificato il sito o senza che di colpo, da un giorno all'altro altri siti lo abbiano lincato.

    --------------

    In questo periodo, ultimi 6 mesi, ho fatto molti test.

    Riassumendo le mie impressioni, senza pretesa alcuna:

    1) L'anzianita' di un sito incide molto verso il 4-5-6 anno, per poi scemare mano nano, una sorta di gaussiana. Questo permette a siti giovani di non essere troppo priviligiati rispetto quelli appena nati, ed ai siti storici di non mantenere posizioni privilegiate troppo facilmente rispetto a quelli anzianotti, o con altri valori forti.

    2) Il server sul quale risiede il server (e con che siti contiene) ha un valore pesantissimo.
    Questa idea, che per la prima volta ho letto tempo fa su questo forum, in base a quanto affermato da Key, si e' rilevata (per quanto ho potuto verificare) fondamentale e di enorme incidenza.

    Ad oggi non saprei calcolare se vale di piu' un sito anziano piuttosto che un sito posto su un server "buono" e che contiene siti validi.

    3) Gli spider premiano i siti facilmente indicizzabili, livelli alti e link (interni ed esterni) che puntano a pagine inutili o che dispendono le loro energie (degli spider) sono penalizzate pesantemente (idea di Key, confermata per quanto mi concerne).

    4) Le estensioni dei domini pesano, meno rispetto quanto sopra ma pesano. Un .com non e' un .biz. Un .info puo' essere anche meglio di un .com e via discorrendo.

    5) La lunghezza di una url conta. Poco ma conta. Meno caratteri non alfanumerici presenta meglio e', puo' convenire evitare le estensioni delle pagine, spesso meglio un "pagina" che un "pagina.htm" ecc ecc

    6) Ottimizzare per key aiuta a scalare le serp per quella key, ma non incrementa gli accessi globali di un sito, questo se il sito ha gia' ottenuto globalmente gli accessi attesi.

    7) I giochini di dns sono inutili con G, spesso penalizzano con Y, premiano per M.

    8)I link in entrata pesano molto (backlink) ma non pesano soprattutto per il numero, come spesso si pensa, non pesano prevalentemente in considerazione se sono a tema o meno (idea che ora va per la maggiora) ma pesano anche per l'anzianita' e non poco! Tra 10 link in entrata a tema nuovi e' preferibile avere 3 link in entrata a tema vecchi. Ovvio che poi dipende da chi ti linca ecc ecc, ma si discute e compara il tutto a parita' di condizioni.

    9)Si possono condizionare e penalizzare (persin far bannare in caso di siti a basso valore) gli altri siti (anche avversari) a seconda di come e quando e quanto li si linca. Non entro in merito.

    10) Alcuni motori (non G) si basano sulle serp dei concorrenti, per questo ogni sito dovrebbe essere almeno triplicato, 3 siti identici e per ogni sito un robots che blocca gli spider di 2 motori.

    11) Account come adsense, overture, adwords, sitemap, l'add di yahoo ecc ecc servono "anche" per accorpare diversi siti assegnandone la proprieta' rispetto un solo elemento, il proprietario dell'account. Se si puo' si dovrebbe usare piu' account, laddove i tc lo consentano (e se non si vuol rischiare, a ragion veduta, anche dove i tc non lo consentano).

    12) I motori tracciano come si comportano gli utenti, pertanto ogni tipo di redirect e' fortemente penalizzante.

    13) Il robots viene sempre rispettato dai maggiori motori, ma sempre e solo dai loro spider automatici.

    14) Robots pesanti penalizzano, i siti con robots vengono di norma "di fatto, involontariamente" penalizzati in misura infinitesimale, magari per evitare che i wm se ne innamorino, o forse perche' un motore se trova un robots usa risorse per analizzarlo e comunque, teoricamente, spaiderizzera' di media una pagina in meno del sito.

    15) Il codice che compone una pagina (es. js) se inibito-vietato ad uno spider penalizza la pagina stessa che lo richiama.

    16) I motori non fanno distinzione tra server apache o iis, neanche msn.

    17) G si basa fortemente sull'analisi del contenuto per bannare ed eventualmente poi giudicare una pagina, Y e M ad ora sembra che non se ne preoccupino troppo. In compenso frequentemente G prende delle "sole" pazzesce, spesso penalizzando il copiato e non chi copia.

    18) Incerta. I sottodomini sarebbero penalizzati, meglio le sottodirectory. Un sottodominio prevede un suo robots e si distingue dal dominio di appartenza. Se linco una sottodirectori linco idealmente il sito tutto, se linco un sottodominio premio solo un aspetto, una parte di un dominio. Inoltre se un dominio avesse 1000 sottodomini dovrei prevere 1000 robots. Con 1000 sottodir un solo robots, un bel risparmio di risorse (Key insegna)

    19) I link provenienti da siti dove e' possibile scrivere pubblicamente (forum, blog, ecc) saranno considerati sempre meno, al punto di penalizzare, a causa dello spreco di risorse dei motori nel conteggiarli e valutarli.

    20) I motori distinguono e valutano fortemente gli accessi alle url delle loro serp in base all'ip degli utenti. Un ip condiviso da 1.000.000 di utenti vale meno di un ip unico dedicato, un ip intranet di un ip internet dedicato vale meno di un ip unico internet (192.168.0.1-100.100.100.100 < 100.100.100.101).

    -----------------

    Ad oggi, attualmente, se si compra un dominio anzianotto, non scaduto e con buoni e vecchi link in entrata e lo si mette possibilmente su un server tutto suo, e li' si creano "massicci" contenuti "non indecenti" (che non significa decenti) in tema con i vecchi link, si ottengono accessi di assoluto rispetto ed ottima resa.

    Questo ultimo banale "trucchetto" confermerebbe i limiti odierni dei motori di fronteggiare banalissimi escamotage di spam, anche se, solo rispetto un anno fa, i motori hanno fatto passi da gigante.

    -----------

    Ho scritto al volo alcune idee che sono poco discusse nei vari forum internazionali, ovviamente non e' tutto oro colato, a volte sono forzature ideali, idee che sarebbero, potrebbero ma forse non sono.

    Probabilmente ho tralasciato molto per ignoranza, probabilmente ho tralasciato molto altro per dimenticanza, probabilmente ho tralasciato altrettanto perche' gli stessi motori sono molto cauti ed indecisi su alcuni nuovi aspetti...

    ----------------

    Chiudo il tutto (finalmente dite, lo so...) risportando 2 massime che sono alla base di ogni buon seo.

    Quando hai un dubbio non ci sono dubbi.
    Quando il non aver dubbi ti crea un dubbio, usa fibonacci (per partito preso).

  4. #4
    Complimenti ago, sei uno dei migliori del forum.

    Osservazioni:

    Punto 6: Se in generale può essere vero per key "consolidate" non vale per key stagionali o "breaking news": se indovini un articolo puoi moltiplicare gli accessi del sito per un determinato periodo.

    Punto 10: ottima intuizione, non ci avevo mai pensato

  5. #5
    Utente di HTML.it L'avatar di RAM_WM
    Registrato dal
    Jul 2003
    Messaggi
    715
    Complimenti ottima analisi

    Mi preoccupa però questo punto:
    [supersaibal]Originariamente inviato da agoago 15) Il codice che compone una pagina (es. js) se inibito-vietato ad uno spider penalizza la pagina stessa che lo richiama.[/supersaibal]
    Quindi se nella pagina ho un JS richiamato dalla Dir "Script", e questa Dir è "vietata" attraverso il robots.txt, la pagina verrebbe penalizzata?


  6. #6
    Utente di HTML.it
    Registrato dal
    Apr 2002
    Messaggi
    5,710

    sul 16) non mettere LA MANO SUL FUOCO

    Poi ti regalo una NEWS ...i bot sono timidi,cioe se in server ce traffico o riunione di bot alcuni fanno la "presenza" ma non scannizzano e pertanto non esisti se la cosa si ripete x 10 gg, puoi dire ciao alla KEY(ci ho buttato il sangue x questa news).
    Poi quella che parcheggia la home (cuore del sito) la sai vero?!?!?!?
    mmmmmmmmmmmmmmappinnnn...

  7. #7
    Utente di HTML.it
    Registrato dal
    Nov 2002
    Messaggi
    2,460
    21) Da un pò di tempo a questa parte passa una sorta di bot spazzino con user agent
    "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
    Che decide in seguito cosa spiderizzare con il classico user agent di Googlebot.

    Per quanto mi riguarda, quando questo bot passa troppo spesso, non è un buon segno.

  8. #8
    [supersaibal]Originariamente inviato da uMoR
    21) Da un pò di tempo a questa parte passa una sorta di bot spazzino con user agent
    "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)"
    Che decide in seguito cosa spiderizzare con il classico user agent di Googlebot.

    Per quanto mi riguarda, quando questo bot passa troppo spesso, non è un buon segno. [/supersaibal]
    Su questo punto non sono molto d'accordo, il bot da te nominato naviga un mio sito dal marzo 2005, però non ho mai avuto problemi di sorta. La mia opinione/tesi è che google sfrutta questo bot con le estensioni mozilla per individuare più facilmente eventuali redirect o trucchetti vari smascherabili con i vari browser.

  9. #9
    Utente di HTML.it L'avatar di Nkosi
    Registrato dal
    Feb 2003
    Messaggi
    412

    Re: sul 16) non mettere LA MANO SUL FUOCO

    [supersaibal]Originariamente inviato da key
    Poi quella che parcheggia la home (cuore del sito) la sai vero?!?!?!? [/supersaibal]
    io no, ma sarei mooolto interessato a conoscerla...

  10. #10
    Utente di HTML.it
    Registrato dal
    Nov 2002
    Messaggi
    2,460
    La mia opinione/tesi è che google sfrutta questo bot con le estensioni mozilla per individuare più facilmente eventuali redirect o trucchetti vari smascherabili con i vari browser.
    Se noti attentamente però, questo bot passa (e non mette in cache nulla) e poi ripassa lo user agent normale a prelevare soltanto ALCUNE pagine di quelle passate dal suo "collega".

    Ne ho parlato privatamente con agoago ed è emerso che sia probabilmente un bot spazzino che decida cosa spiderizzare e cosa no (risparmio risorse).

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.