Visualizzazione dei risultati da 1 a 6 su 6

Discussione: G e redirect

  1. #1
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954

    G e redirect

    Ho come l'impressione, una forte impressione, che i redirect (anche lato server) con G non "funzionino" piu'.

    Mi spiego meglio.

    Ammettiamo che un sito abbia questa pagina:

    sito.com/a.html

    Cancello la pagina a.html ma via htaccess impongo che chiunque scriva questa url: sito.com/a.html veda il vecchio contenuto e url di sito.com/a.html, mentre chi arriva a quella pagina per dire tramite un refer sia rediretto su sito.com

    In poche parole, se scrivo nel mio browser sito.com/a.html vedo sito.com/a.html mentre se arrivo alla pagina sito.com/a.html via click (su un link) vedro' sito.com.

    Ora, da sempre, questo caso andava benissimo per "fregare" i motori.

    Lo spider cercava sito.com/a.html (senza cliccare nulla) e trovava sito.com/a.html, una pagina creata (o no) al momento lato server.

    L'utente cliccava un link (anche un link dalla serp del motore) verso sito.com/a.html e viceversa vedeva sito.com.

    Per capire meglio, htaccess diceva, se c'e' un refer vai a sito.com, viceversa vai sulla pagina originale, creata all'istante o reale che sia.

    ---------------

    Bene, mi sembra che questo trucco con G non funzioni piu', o forse non sempre, o forse mi sbaglio.

    Lo spider di G passa e mi legge sito.com/a.html, pagina creata al momento (lato server) per lui, tutto bene.

    Mi inserisce nelle sue serp sito.com/a.html.
    Perfetto.

    Dopo di che clicco, dalle sue serp, il link verso sito.com/a.html e finisco ovviamente su sito.com (htaccess che si intromette).

    Lo faccio-ripeto da diversi pc, diversi ip, ecc ecc
    Clicco il link in serp verso sito.com/a.html e finisco sempre ovviamente su sito.com.

    ----------------

    Se passasse lo spider ovviamente vedrebbe sempre e solo sito.com/a.html, come detto prima.

    --------

    Di fatto, incredibilmente, dopo 4 ore di click di prova, il link dalle serp di G verso sito.com/a.html e' scomparso. Praticamente in tempo reale...

    Premetto che ho usato browser con tb di G e tb di alexa.

    ------------

    Non solo.
    Se clicco il link in serp verso sito.com/a.html e lo faccio aprire in un nuovo browser, e l'htaccess mi ridirige su sito.com, ecco che la tb di G mostra per sito.com il pr di sito.com/a.html, invece del solito pr di sito.com, magari pr5.

    Non si aggiorna. Vedro' sito.com con pr2 o pr0 o comunque il pr appartenente alla pagina sito.com/a.html e non il pr "reale" di sito.com... latenze??
    Non so, ma anche se faccio f5 sempre il pr della pagina prima e' mostrato dalla tb di G per site.com
    ------------

    Altro fatto poco chiaro e' alexa, societa' vicina a google, che con la sua tb, mostra cliccando sul valore numerico di classifica mondiale non il link a site.com ma il link verso la pagina site.com/a.html, anche se ci troviamo dopo il redirect sulla home di site.com.

    ----------

    Sono prove alla buona, senza pretesa alcuna, ma pur sempre interessanti.

    -----------------

    Concludendo, la mia forte impressione e' che G stia ripulendo poco a poco le sue serp di tutte quelle pagine che fanno redirect, lato server o lato client. Non importa.

    ----------------

    Attenzione pero' a non fare confusione.

    Se io ho una pagina dinamica per dire go.asp?animali/cane e lato server rimando ad /animali/cane.htm, questo 'e un redirect o no?

    Dipende dal link.

    Se linco la dinamica e finisco sulla statica lo e', se linco direttamente la statica e la statica viene creata tramite una dinamica allora no.

    E' cosa si cerca rispetto alla url che si trovera', che stabilisce se e' o non e' un redirect.

    -------------

    Riassumendo, e questa volta per davvero, senza prova alcuna, ma basandomi solo su quel senso in piu', tipico di chi da tanti anni svolge una data professione, consiglio spassionatamente di evitare in futuro qualsiasi tipo di redirect.

    Il redirect e' morto.

  2. #2
    Utente di HTML.it L'avatar di Evi|A|ivE
    Registrato dal
    Jun 2002
    Messaggi
    2,171
    lunedi vado a comprae una stampante nuova.
    Cerco tutti i tuoi post.. e ci stampo un libro.
    po ifacciamo a meta ovviamente.

    Cmq interessante, effettivamente qualsiasi genere di "truchetto" si possa escogitare, comunque "da quella parte" lo sanno.. e lavorano per renderlo inutile.

    L'ho detto e lo ripeto:
    Stai a vedere che per fare un sito ottimizzato.... bisognerà fare un ottimo sito?!!
    [Disclaimer: le | nel nome non son li per far figo, evito solo di trovarmi spammato il nick nelle millemila pagine del forum in serp ..]

  3. #3
    Ago scusa se mi intrometto ma il bot di Google ti arriva sul sito tante volte anche tramite refer e poi non sei neppure obbligato ad usare un htaccess ma con un header location lo "muovi" come vuoi e se a quello ci associ uno sleep time (io parlo sempre da PHP) abbastanza alto (tra i 10 e i 20 secondi tempo piu o meno medio in cui un utente "umano" visualizzerebbe e leggerebbe la pagina) il bot non se ne accorgerebbe

    OT come sta l'alessandrino verace di una volta ? /ot

  4. #4
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954
    Grazie Evi|A|ivE per i complimenti, fanno sempre piacere.

    "Stai a vedere che per fare un sito ottimizzato.... bisognerà fare un ottimo sito"

    Si se per ottimo sito si intende un sito con contenuti originali e codice, struttura, ecc ecc il meno ripetitivo possibile.

    Che poi il contenuto originale sia piu' vantaggioso (ai fini economici) crearlo da uomini o macchine e' tutto da discutere. E' questa la sfida dei prossimi 2-3 anni.




    [supersaibal]Originariamente inviato da stefano3804
    Ago scusa se mi intrometto ma il bot di Google ti arriva sul sito tante volte anche tramite refer e poi non sei neppure obbligato ad usare un htaccess ma con un header location lo "muovi" come vuoi e se a quello ci associ uno sleep time (io parlo sempre da PHP) abbastanza alto (tra i 10 e i 20 secondi tempo piu o meno medio in cui un utente "umano" visualizzerebbe e leggerebbe la pagina) il bot non se ne accorgerebbe

    OT come sta l'alessandrino verace di una volta ? /ot [/supersaibal]
    Uno spider segue un-i link, ma non ha refer, se lo avesse saremmo tutti avvantaggiati, sapremmo per esempio quali link premiano-aiutano e quali no. Nel file log vedremmo il refer del bot e tanti saluti ai segreti dei motori...

    Per quanto riguarda header location e simili, torniamo al discorso di prima, conta che link-url vedi nella serp del motore e poi in che url finirai dopo averla cliccata.

    Se corrisponde tutto ok, viceversa e' redirect con quel che ne consegue. Si possono usare 100 trucchi, si puo' anche falsificare le risposte di un server web, tutto e' possibile. Ma se clicco un link verso a.html e poi finisco su b.html e' redirect.

    Posso intercettare le varie tb e nel caso mettere dei delay, ma non cambia nulla, lo spider mi legge la pagina e rileva il codice di rallentamento.

    Potrei rallentare i redirect lato server, ma allora non sarebbe piu' un redirect... sarebbe meglio pertanto un sano link verso la pagina target.

    Posso cambiare il contenuto della pagina al volo, a seconda di chi vi accede, ma questo non e' redirect, e' essere furbi!!
    Nulla a che vedere con quanto sopra.
    L'url richiesta rimarra' la stessa che sara' visualizzata.

    Anche il 301 e' un redirect, tollerato dai motori, non premia ai fini del posizionamento ma se usato male penalizza.

    -------------------

    La base di tutto e' che lo spider e' di fatto scemo. E' scemo completo. Lo spider gira e rigira raccogliento informazioni, gestito dal bot (che non e' lo spider, ma chi lo controlla o verifica, anche se tutti tendono a fare delle 2 cose una cosa sola).

    Pertanto lo spider legge per dire la home in inglese di un sito, ma quel sito potrebbe avere 20 home, una per lingua. Lato server.

    Il motore allora deve poter capire cosa succede su tutte le pagine che non sono spiderizzate, o che sono state spiderizzate da un qualcosa di assolutamente semplice-sciocco.

    Pertanto delega questo controllo a vari fattori "esterni", la sua pubblicita' nella pagina, le tb, i proxy, ecc ecc.

    E' da mesi, se non anni, che e' cosi'.

    La novita', a mio giudizio, e' che precedentemente questi dati "esterni" non influenzavano piu' di tanto le serp, oggi invece le condizionano.

    Questo perche' i motori hanno capito che cio' che legge uno spider e cio' che vede un utente troppo spesso non corrisponde.

    ------------

    Il grosso problema, e' che i motori sono limitati come i loro spider.

    Non vorrei creare confusione, ma ci sono cose che vanno dette.

    I motori si basano su uno spider, che essendo un programma, il piu' delle volte, non risponde alle tante variabili-condizioni-premesse di chi e' letto.

    Per esempio io posso dividere un sito su 10 server, in 10 nazioni diverse. Fare 10 home diverse, il dns decidera' cosa far vedere a seconda di dove proviene l'ip dell'utente.

    L'ip degli spider, gira e rigira, sono sempre gli stessi e con stesse origini. Allora l'ip americano non vedra' mai la home che io ho preparato per chi arrivera' sul mio sito con un ip del Congo.

    Io ho 100 home, 1000 home che variano a seconda dell' ip utente, ma lo spider ne vedra' sempre e solo una di home... tristezza.

    ---------

    Capiamoci, se io ho 10 home e poi cerco su un motore site:miosito.com il motore mi mostrera' un solo risultato per la home di miosito.com, non 10 risultati.

    Per lui esiste una sola home, l'unica home che e' in grado di vedere.
    Se avesse 100 spider diversi, magari con ip molto distanti tra di loro, ne vedrebbe 8-10 e non 1 sola.

    Pertanto il motore, conscio di questo suo enorme limite, sfrutta tb e simili per fotografare il web reale, e non solo piu' il web percepito dal suo spider.

    -------------

    Ok, veniamo al dunque, cosa c'e' di sbagliato in tutto questo?
    Molto, troppo.

    ---------

    I motori utilizzano, ed utilizzeranno, fattori esterni per proteggersi, per difendersi, per organizzarsi al meglio rispetto ad un web multistrato, un web multiforme e cangiante a seconda da che "lato" lo si osservi.

    Ma i motori non utilizzano questi fattori esterni per aumentare il loro database, non mettono in serp le 10 differenti home di miosito.com, i motori sottraggono, bannano, filtrano, sortano ma NON IMPLEMENTANO nelle loro serp le eventuali realta' parallele che i siti possono proporre.

    -------

    Il giorno che vedro', cercando site:miosito.com, le quattro mie home, tutte con la-una stessa identica url, ma con 4 contenuti diversi, elencate nella serp del motore, allora sara' un giorno nuovo per il web.

    I motori passeranno da bidimensionali a tridimensionali.

    -----------

    Queste cose, ai seo, spesso non interessano molto.
    Sembrano distanti ed inutili, tanta teoria, tanta fantasia, poca pratica.

    Mica che leggendo questo post poi ci ottimizzo un sito...
    Ed invece lo ottimizzi, eccome.

    --------

    Basta capire ed accettare che una url puo' mostrare tanti contenuti diversi. Non piu' redirect da url ad url per mostrare il contenuto voluto, ma stessa url e contenuti diversi a seconda di chi vi accede.

    In questo modo obbligheremo i motori a leggere e mostrare il web in tutti i suoi strati, e non in modo piatto come fanno ora.

    Ma soprattutto sfrutteremo il limite maggiore dei motori.
    Loro sono ciclopi, hanno un solo occhio-spider. Vedono una sola realta'.

    Per noi le realta' di ogni nostra pagina possono essere infinite.
    Un unico indirizzo civico ma con 1000 palazzi diversi edificati sopra.

  5. #5
    io son sicuro anzi certo che ho dei refer (e non pochi) che ho come user agent quello del bot
    E tanti mi arrivano proprio da questo forum

  6. #6
    Utente di HTML.it L'avatar di agoago
    Registrato dal
    Jan 2002
    Messaggi
    954
    [supersaibal]Originariamente inviato da stefano3804
    io son sicuro anzi certo che ho dei refer (e non pochi) che ho come user agent quello del bot
    E tanti mi arrivano proprio da questo forum [/supersaibal]
    Stefano3804 intendevo dire che lo spider non divrebbe avere refer.
    L'user agent e' appunto, come detto, lo spider di un motore.
    A questo punto potrebbe esserci un refer o no assieme all' u.a., ma per me sarebbe una sorpresa mica da poco riscontrare questa eventualita'.

    Sarebbe la prima volta in 10 anni, e pur non escludendo che oggi possa succedere, sarebbe utilissimo vedere un paio di righe di un log dove hai riscontrato questo connubio spider+refer.

    Controlla e se puoi riporta il tutto!

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.