Pagina 1 di 3 1 2 3 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 25
  1. #1

    estremo viral marketing, eticamente è valido?

    Sempre più spesso noto che una gran quantità di persone si salva nel pc le pagine del mio sito.

    Parliamo di centinaia di pagine al giorno (anche di +).

    Ora... ipotizzando che sia possibile (e sono certo che un abile programmatore lo sia)... quanto riterreste correto fa si che, chi salva le pagine di un sito, si ritrovi modificata la pagina iniziale del browser con la home del sito dal quale ha prelevato le pagine?


    In altri termini, se io salvo la pagina www.miosito.it/pagina.html mi ritroverò come pagina iniziale del browser www.miosito.it

    O, addirittura, fare in modo che, a intervalli di navigazione regolare (ad esempio ogni 35 ore di navigazione) si apra in automatico www.miosito.it


    Lo riterreste eccessivo?

  2. #2
    Si chiama Hijacking Piccolo, direi proprio di sì. Andresti incontro a tante rogne con me!
    Ci sono almeno 100 software vhe bloccano la pagina iniziale, quindi non sarebbe neanche sempre fattibile la cosa.

  3. #3
    [supersaibal]Originariamente inviato da E.L.
    Si chiama Hijacking Piccolo, direi proprio di sì. Andresti incontro a tante rogne con me!
    Ci sono almeno 100 software vhe bloccano la pagina iniziale, quindi non sarebbe neanche sempre fattibile la cosa. [/supersaibal]
    si certo li uso anche io, alcuni mi hanno portato a formattare per esasperazione e poi inserirli nella lista nera dell'antivirus, non ci si accede nemmeno volendo.

    Ma io parlo solo ed esclusivamente per chi salva una pagina del sito, non per il semplice visitatore.

    così come ipotesi... è eccessiva?

  4. #4
    Utente di HTML.it L'avatar di Bat
    Registrato dal
    May 2002
    Messaggi
    588
    Concordo con E.L., ti metteresti dalla parte del torto.

    Il punto è: perchè salvano le pagine del tuo sito?
    i casi sono due: o a qualcuno interessano le tue pagine per ragioni di concorrenza oppure sono utenti interessati al contenuto.

    se il consumo di banda/numero eccessivo di accessi ti infastidisce una modifica tattica del robots.txt escludendo una buona parte dei sftw. di prelievo pagine automatiche potrebbe essere una soluzione.

    Ma visto che l'obiettivo di un sito che vuole essere di buon livello deve sempre essere l'utilità/usabilità potrebbe non essere una mossa molto popolare.

    Secondo me nel momento in cui disabiliti questa possibilità dovresti almeno aggiungere della documentazione personalizzata scaricabile (il solito pdf) con i contenuti, magari organizzati per argomenti.
    (per semplificare una soluzione potrebbe essere quella di salvare direttamente dei "capitoli" con il contenuto delle tue pagine web direttamente salvato in pdf)

    Mi rendo conto che per un sito così potrebbe diventare un lavoro titanico, ma per l'utonto si fa questo ed altro no?

  5. #5
    [supersaibal]Originariamente inviato da Bat
    Concordo con E.L., ti metteresti dalla parte del torto.

    Il punto è: perchè salvano le pagine del tuo sito?
    i casi sono due: o a qualcuno interessano le tue pagine per ragioni di concorrenza oppure sono utenti interessati al contenuto.

    se il consumo di banda/numero eccessivo di accessi ti infastidisce una modifica tattica del robots.txt escludendo una buona parte dei sftw. di prelievo pagine automatiche potrebbe essere una soluzione.

    Ma visto che l'obiettivo di un sito che vuole essere di buon livello deve sempre essere l'utilità/usabilità potrebbe non essere una mossa molto popolare.

    Secondo me nel momento in cui disabiliti questa possibilità dovresti almeno aggiungere della documentazione personalizzata scaricabile (il solito pdf) con i contenuti, magari organizzati per argomenti.
    (per semplificare una soluzione potrebbe essere quella di salvare direttamente dei "capitoli" con il contenuto delle tue pagine web direttamente salvato in pdf)

    Mi rendo conto che per un sito così potrebbe diventare un lavoro titanico, ma per l'utonto si fa questo ed altro no? [/supersaibal]
    bat concordo. ma è una cosa che ho già fatto. Il sito è diviso in 16 dispense scaricabili (al costo di 5 euro ciascuna) prelevabili in .doc + una decina di dispense gratuite per il download delle quali è richiesta l'iscrizione alla newsletter.

    Io concordo che molti salvano solo per usare il contenuto, ma comprendi che questo elimina possibili futuri accessi.

    Allora avevo pensato a questo estremo atto.

  6. #6
    Utente di HTML.it L'avatar di Bat
    Registrato dal
    May 2002
    Messaggi
    588
    già, il problema è proprio questo.
    tagliare il download dei contenuti ti pregiudicherebbe forse degli accessi. ma anche no.

    siamo in italia, come ho letto di recente l'unico paese in europa in cui la pirateria cresce anzichè diminuire, e quindi questi sono il ns. pubblico. con questa premessa vediamo quanto valida può essere la seguente ipotesi :
    (utente medio italiano, quello che cerca la roba aggratis, per il quale 5 euro sono buttati se riesce a ottenere lo stesso senza spenderli)

    1)visita il tuo sito.
    2)mmm. carino.
    3)QUANTO??? VVoVe: 5euri?questo è matto!
    4)scarico il sito e mi faccio due birre alla facciaccia sua!
    5)azz. com'è che il mio fido web-raper-non-so-che non funzia?
    6)vabbè sarà qualche virus sul mio uindov.
    7)intanto lo metto nei preferiti. ci torno domani.

    secondo me dopotutto non è proprio tutta da scartare ...

  7. #7
    non credo che il web raper si fermi di fronte al robots.txt! O si?
    Hai esperienze.

    Cmq la vendita di dispende è discreta, ma % bassa rispetto agli accessi.

    Una volta uno mi telefonò per dirmi che dovevo aumentare i prezzi. Ieri uno mi ha scritto per sapere se poteva avere uno sconto per quantità (ne aveva comprate 3!).

    All'inizio avevo pensato a 5 euro proprio per evitare copie abusive, ho detto "importo basso non dovrebbe stimolare a fregare la roba". Il punto invece è che per alcuni fosse anche 5 centesimi è nel gusto di fregarti, non nel reale risparmio! :rollo: non so se sia una prerogativa italiana, certo è una gran brutta storia!

  8. #8
    Utente di HTML.it L'avatar di Bat
    Registrato dal
    May 2002
    Messaggi
    588
    il robots txt non ferma un utente in grado di fare un uso normale del pc, dopotutto basta andare nelle opzioni ed impostare l'agent su ie o mozilla.

    non ho statistiche a riguardo, la mia esperienza diretta mi ha chiaramente dimostrato che gran parte degli utenti utilizza un programma esattamente com'è impostato nel momento dell'installazione, senza prendere nemmeno in considerazione impostazioni diverse (escluse modifiche estetiche, quelle le fanno sempre).
    Quando non funziona più di norma lo disinstalla (quando va bene...).

    c'è però da dire che per chi avrà modificato l'agent la modifica del robot sarà superflua, mentre per gli altri la manovra otterrà l'effetto voluto.

    ..magari sono solo ottimista ?

  9. #9
    tentare non costa nulla, mi dici la stringa da aggiungere?


    Restano tuttavia quelli che fanno "copia/incolla" anche li le stat sono elevatissime! :rollo:

  10. #10

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2026 vBulletin Solutions, Inc. All rights reserved.