Salve,
uno sniffing del browser all'inizio di una home page, fatto in php, del tipo:
if(preg_match('/googlebot/',$_SERVER['HTTP_USER_AGENT'])) {
bla bla bla);
}
else if bla bla bla
può essere dannoso, penalizzante, bannabile?
Ciao e grazie.
Salve,
uno sniffing del browser all'inizio di una home page, fatto in php, del tipo:
if(preg_match('/googlebot/',$_SERVER['HTTP_USER_AGENT'])) {
bla bla bla);
}
else if bla bla bla
può essere dannoso, penalizzante, bannabile?
Ciao e grazie.
se entra dalla home penso di si...invece se entra da un link NO!!!![]()
mmmmmmmmmmmmmmappinnnn...
Ciao, grazie dell'intervento.
...però scusa, lo spider che ne sa? se appena si collega, l'input che riceve è un altro...o viene dall'home page o da un link, tecnicamente è la stessa cosa. Penso che se abbiano fatto una procedura di questo tipo, dovrebbe funzionare ogni volta...
Secondo me non ti becca, però se se ne accorgono, viene considerato come cloacking.
Il punto, però, è come fanno? chi gli da la pagina originale con lo script?
Umooooooooorrrrrrrrrr rispondi e la stessa cosaaa?dall'home page o da un link, tecnicamente è la stessa cosa![]()
mmmmmmmmmmmmmmappinnnn...
non serve accedere allo script.
basta confrontare la differenza di output tra la pagina vista da uno user agent e un altro.
quindi il cloacking può essere pizzicato solo su segnalazione, in teoria o comunque tramite controllo manuale...
Quello che fai è cloacking, si puo' essere bannati per queste cose..
www.hotelexpert.it con Google Maps!
ciao, ma io non lo uso per questo motivo.
Mi serviva per il mio sistema di statistiche, ma volevo solo appurare che non fosse riconosciuto come cloacking...mi sembra però che non ci siano pareri affidiabili, quindi meglio procedee diversamente, forse...
Se quello che fai è un controllo interno per attivare delle funzioni con non alterano il contenuto delle pagine html, vai tranquillo, l'importante è che ciò che vede l'utente sia la stessa cosa che vede il bot.
www.hotelexpert.it con Google Maps!
no![supersaibal]Originariamente inviato da gio-mx
quindi il cloacking può essere pizzicato solo su segnalazione, in teoria o comunque tramite controllo manuale... [/supersaibal]
basta che lo spider cambi user agent (e google lo fa ogni tanto), e confronta le pagine rilevate con lo spider con useragent googlebot.
ma come ha detto jeff, basta che non cambi il contenuto della pagina.
p.s. in realta' credo che se il contenuto cambia leggermente, e con il solo, manifesto fine di dare allo spider pagine piu' leggere/piu' leggibili per uno spider, non scattano penalizzazioni per cloaking.
ma questo ovviamente che il contenuto reale della pagina resta uguale.