Salve,
leggendo nei vari post del forum in merito ai vari filtri "AntiDuplicazione" adottati dai motori di ricerca, mi sono fatto un'idea vaga della cosa, ma mi restano ancora alcuni dubbi in merito chevado ad esporre di seguito:
-oltre a Google, ci sono anche altri motiri di ricerca che adottano questi filtri?
-nel caso uno abbia 2 o più siti che vengono individuati dai motori di ricerca come "cloni", non è possibile essere avvisati prima che scatti la penalizzazione?
-la duplicazione, vinie riscontrata, a quanto ho letto in questo forum, prevalentemente sulla struttura del codice HTML, anche se in alcuni casi ho letto di siti che sono stati penalizzati per condividere solamente dei contenuti (degli articoli, ad esempio). Quindi? Come sta la faccenda?
Ad esempio utilizzando una struttura stupida e standard (tipo una semplice tabella) e visualizzando delle pagine dinamiche basate su flussi XML, credo sia molto facile che uno o più siti siano (anche inconsapevolmente) "uguali" se entrambi sfruttano gli stessi flussi XML, no?
Per spiegarmi meglio:
supponiamo di avere n siti che utilizzano gli stessi flussi XMl forniti dalla azienda "x" per visualizzare degli articoli (qualsiasi essi siano). In questo caso avremmo "n" siti che pubblicano gli stessi contenuti. Salvo eventuali "stravaganze dei webmaster" sarà molto probabile che tali contenuti vengano visualizzati con con una medesima struttura (all'interno di una tabella con x righe ed y colonne); apparte i differenti CSS, differenti metatag, differenti colorti e loghi tutti i siti (in teoria) saranno uguali...forse qualcuno potrà avere anche dei link diversi: diverso "chi siamo", diverso "contattaci"...magari qualcuno avrà delle colonne laterali oppure header e footer diversi, ma in sostanza, all'occhio dell'utente si tratterà di siti più o meno equivalenti tra loro.
In questo caso...i famosi filtri AntiDuplicazione, come si comportano?

Rispondi quotando


