Pagina 1 di 6 1 2 3 ... ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 51
  1. #1

    Come non farsi copiare il sito?

    Salve a tutti,
    gestisco il sito www.gnomixland.com è nell'arco di 1 settimana, ben 2 testine hanno cercato di copiarmi l'intero sito (usando wget, puf o altro...) provocandomi:
    1) grandissima richiesta di banda
    2) lamente dai miei sponsor che credevano che io volessi fregarli
    3) statistiche non reali

    Ora vi chiedo.. come posso bloccare ste testine di ..... ?
    Esistono script in C perl o quant'altro magari da eseguire tramite crontab per evitare sti problemi?

    Grazie a tutti
    By [Gnomix]
    WM www.gnomixland.com
    Staff Bismark.it
    Sender SecurityNews

  2. #2
    usa squid come httpd_acceleretor o meglio come reverse proxy e filtri tutto con dei regexp ad hoc !
    I have tried all ... but the preferred remains SLACKWARE !
    RHCE (Linux Red Hat Certified Engineer)
    CNAC (Cisco Networking Academy Certified)
    "Non auro, sed ferro, recuperanda est patria"

  3. #3
    cioè? qualche how to in merito?
    perchè io pensavo di fare uno script ad hoc che controllare i log di httpd con alcune regole
    By [Gnomix]
    WM www.gnomixland.com
    Staff Bismark.it
    Sender SecurityNews

  4. #4
    in teoria squid e tutti proxy in generale vengo considerati dei "firewall" layer 7. Quindi possono gesitire delle policy di sicurezza a livello applicativo. Se googli trovi tanto materiale su come fare un reverse proxy , e credo che basti solo quello perchè al max si scaricano la cache del proxy , senno applichi delle regole particolari !
    I have tried all ... but the preferred remains SLACKWARE !
    RHCE (Linux Red Hat Certified Engineer)
    CNAC (Cisco Networking Academy Certified)
    "Non auro, sed ferro, recuperanda est patria"

  5. #5
    Utente di HTML.it L'avatar di gigyz
    Registrato dal
    Oct 2003
    Messaggi
    1,443
    esiste il robot.txt che è stato fatto apposta, è aggirabile ma è una osluzione a costo 0

  6. #6
    Si ma non penso ke usando programmi come wget o puf il robot.txt possa servire a molto...
    By [Gnomix]
    WM www.gnomixland.com
    Staff Bismark.it
    Sender SecurityNews

  7. #7
    Utente bannato
    Registrato dal
    Aug 2002
    Messaggi
    930
    Originariamente inviato da gigyz
    esiste il robot.txt che è stato fatto apposta, è aggirabile ma è una osluzione a costo 0
    imho, non serve per quello che vuole lui, robots.txt viene usato dagli spider del motore per sapere cosa non indicizzare con il wget del file in oggetto non se ne fa niente....

  8. #8
    Originariamente inviato da toghir1
    imho, non serve per quello che vuole lui, robots.txt viene usato dagli spider del motore per sapere cosa non indicizzare con il wget del file in oggetto non se ne fa niente....
    esatto certi programmini non utilizzano mica robots.txt ma di solito sono gli spider ad utilizzarli...
    By [Gnomix]
    WM www.gnomixland.com
    Staff Bismark.it
    Sender SecurityNews

  9. #9
    Utente di HTML.it L'avatar di gigyz
    Registrato dal
    Oct 2003
    Messaggi
    1,443
    wget invece lo usa e per non usarlo esiste un opzione che non è documentata nemmeno nel man ... provare per credere

  10. #10
    bho non so puf ad esempio non fa nessuna richiesta al robot.txt e cmq non ho definito nessun robot.txt nel mio server..
    By [Gnomix]
    WM www.gnomixland.com
    Staff Bismark.it
    Sender SecurityNews

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.