Pagina 2 di 3 primaprima 1 2 3 ultimoultimo
Visualizzazione dei risultati da 11 a 20 su 26
  1. #11
    Originariamente inviato da seo_sem
    Ah, ecco. Interessante. Ho capito.
    Però a questo punto mi sorge una domanda.
    Se io BHS volessi ad un certo punto mettere su qualche milione di pagine copiate da altri siti e da li sputo fuori milioni di link ai miei siti originali?
    Come la mettiamo Paolino?
    Da quello che dici google te li valuta.
    e invece è proprio così, infatti è quello che gli spammer fanno quando creano i circuiti

    ovviamente il problema è creare un network che non sembri un network, altrimenti vieni bannato e lì ci sono mille teorie, chi li fa a 3, chi a stella, chi non so che altro tira fuori

    l'altro problema sono le classi di indirizzi IP....se google si accorge che tutti i link verso un sito provengono dallo stesso IP o della stessa subnet, capisce che è spam.....dovresti avere centinaia di domini su reti diverse con una spesa non inferiore ai 5000-6000€ al mese

    infine se google vede che migliaia di link compaiono dall'oggi al domani, mangia la foglia

    insomma si può fare, ma i costi sono un pò fuori portata....ci sono altri metodi molto meno costosi e più efficaci

  2. #12
    Originariamente inviato da Virgilio_x

    Però secondo me il filtro parte addirittura in fase di indicizzazione, se la pagina è un duplicato di una di un altro sito la indicizza ma la protocolla come doppione e questa, oltre a non comparire sulle SERP, non ha nessun valore...
    sai quanti poveri siti onesti verrebbero eliminati così?

    come fa google a stabilire quale tra due pagine è quella originale? lo stabilisce in base a quale delle due ha trovato prima? magari ha trovato prima quella duplicata e poi quella originale e quindi penalizza l'originale

    oppure potrebbe usare il PR come misura....ma sappiamo bene che i blackhat sono abilissimi nell'acquisire PR elevati....quindi in almeno 70 casi su 100, il povero blogger indipendente, autore dell'articolo finirebbe per essere penalizzato perchè l'altro, il ladro, c'ha un PR più grande del suo

    proprio per evitare, Google si riserva di filtrare i contenuti duplicati solo all'atto della creazione delle SERP

  3. #13
    Originariamente inviato da paolino_delta_t
    ovviamente il problema è creare un network che non sembri un network, altrimenti vieni bannato e lì ci sono mille teorie, chi li fa a 3, chi a stella, chi non so che altro tira fuori
    l'altro problema sono le classi di indirizzi IP....se google si accorge che tutti i link verso un sito provengono dallo stesso IP o della stessa subnet, capisce che è spam.....dovresti avere centinaia di domini su reti diverse con una spesa non inferiore ai 5000-6000€ al mese
    Non solo, ma anche se fai un network copiato e senza cross linking stai sicuro che google ti sgama attraverso altri canali, quali i suoi servizi e adsense.
    Come diceva un certo utente di nome agoago, anche msn sfrutta adsense e analytics.

  4. #14
    Utente di HTML.it
    Registrato dal
    Dec 2005
    Messaggi
    1,486
    Mettiamo che uno si metta a comprare siti "dismessi" che non sono penalizzati ma valgono poco, di diversi settori, non dello stesso.
    In questa maniera non sono siti creati ad hoc, sono di diverse argomentazioni, non ci metti dentro ne adsense, ne analitycs, ne altro, copi i contenuti da altri siti di pari settore e ci sbatti in tutte le pagine un link al tuo sito.

    In teoria sono siti diversi esistenti da tempo, di diversa tipologia, di diverso IP, e con i BL comparsi progressivamente nel tempo... In questo caso google non potrebbe mai accorgersi della cosa

    Però in effetti calcolando una media annua di 80 euro/sito di hosting più il costo di acquisizione dei vari siti, i costi sarebbero davvero alti...

  5. #15
    ago notò una cosa importante e cioè che il contenuto di adsense non finiva nelle maglie degli spider

    la conclusione è ovvio e cioè che il codice html usato per l'embedding di adsense viene riconosciuto dagli spider e quindi il contenuto non viene spiderizzato

    così facendo si può creare un perfetto sistema di cloaking client side

  6. #16
    Utente di HTML.it
    Registrato dal
    Dec 2005
    Messaggi
    1,486
    Originariamente inviato da paolino_delta_t
    ago notò una cosa importante e cioè che il contenuto di adsense non finiva nelle maglie degli spider

    la conclusione è ovvio e cioè che il codice html usato per l'embedding di adsense viene riconosciuto dagli spider e quindi il contenuto non viene spiderizzato

    così facendo si può creare un perfetto sistema di cloaking client side
    cos'è il cloaking client side?

  7. #17
    il cloaking fatto tramite javascript, frame che richiamano javascript e cose simili

    che poi sempre col javascript si fa

  8. #18
    Originariamente inviato da paolino_delta_t
    ago notò una cosa importante e cioè che il contenuto di adsense non finiva nelle maglie degli spider

    la conclusione è ovvio e cioè che il codice html usato per l'embedding di adsense viene riconosciuto dagli spider e quindi il contenuto non viene spiderizzato

    così facendo si può creare un perfetto sistema di cloaking client side
    Si, ma io mi riferivo ad un'altra cosa, che ho sperimentato anche io.

  9. #19
    Seo_sem 5 anni? Bella questa, come sono rigidi. Poi andando nella sezione marketing, pubblicità o cerca lavoro i siti accettati sono una trentina o anche meno, così, facendo quella selezione ferrea vanno a ripercuotersi in una scarsa scelta dal parte del navigatore.

  10. #20
    Si, tre anni fa feci questa stessa domanda ad un moderatore di Dmoz in un forum che rispose esattamente così.
    Io, mi sembra, ho solo due siti in Dmoz, uno entrato dopo circa un paio di anni ed uno dopo un mese.
    Poi sono secoli che non vado a richiedere una inclusione.
    Non ho tempo. (anche se forse sbaglio).

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.