Pagina 1 di 2 1 2 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 15
  1. #1
    Utente di HTML.it
    Registrato dal
    Jul 2005
    Messaggi
    642

    proteggere le pagine da downlaod

    ho notato che alcuni siti web, quando tenti di scaricarli in locale, non consentono tale operazione riuscendo a scaricare solo qualche paginetta, come si puo' fare una cosa del genere

  2. #2
    Moderatore di Sicurezza informatica e virus L'avatar di Habanero
    Registrato dal
    Jun 2001
    Messaggi
    9,782
    in che senso? dici usando i classici programmi per scaricare interi siti tipo HTTRACK?
    Leggi il REGOLAMENTO!

    E' molto complicato, un mucchio di input e output, una quantità di informazioni, un mucchio di elementi da considerare, ho una quantità di elementi da tener presente...
    Drugo

  3. #3
    Utente di HTML.it
    Registrato dal
    Jul 2005
    Messaggi
    642
    esatto, ho notato che scaricando i siti importanti di ecommerce non si puo scaricare pressoche nulla!

    Ora siccome e' escluso che le pagine siano tutte in cartelle senza permessi di lettura, altrimenti nessuno potrebbe vedere i contenuti del sito,
    come ci riescono?

    Voglio saperlo non certo per aggirarli ma per implementare una protezione de lgenere sul mi osito

  4. #4
    Utente di HTML.it
    Registrato dal
    Jul 2005
    Messaggi
    642
    scusa ho scritto male non me ne frega niente di sapere come scaricare i siti della gente vogli osol osapere se anchio posso impedire il download e come

  5. #5
    Utente di HTML.it L'avatar di holifay
    Registrato dal
    May 2005
    Messaggi
    1,330
    Per le pagine html non saprei, ma se hai un server apache con il mod_rewrite installato, puoi usare un file *.htaccess con le opportune regole in modo da negare l'accesso sulla base del HTTP_REFERER, a contenuti quali file immagini, Css, js.... .
    Un file tipo questo:
    RewriteEngine on
    RewriteCond %{HTTP_REFERER} !^$
    RewriteCond %{HTTP_REFERER} !^http://(www\.)?mydomain.com/.*$ [NC]
    RewriteRule \.(gif|jpg|js|css)$ - [F]
    In questo caso i file sono accessibili solo da mydomain.com. Il link diretto è impedito

    Qui c'è qualche riferimento:
    javascriptkit
    Shooter

    non so se può esserti utile
    Pensi di avere un file infetto? Invialo a SuspectFile

  6. #6
    Utente di HTML.it
    Registrato dal
    Jul 2005
    Messaggi
    642
    se ho capito bene nel file .htaccess si puo impedire l'accesso a delel cartelline impostando una password, ma poi il file potrebbe essere scaricato e la password trovata?

    Ad ogni modo queste cartelle riservate poi possono contenere script pagine web ecc accessibili via web?

    C'e' un metodo equivalente per windows server 2003?

  7. #7
    Moderatore di Sicurezza informatica e virus L'avatar di Habanero
    Registrato dal
    Jun 2001
    Messaggi
    9,782
    cipcip considera che non esiste un metodo in assoluto efficace. Anzi i trucchi sono sempre aggirabili proprio per il fatto che tu le pagine del sito le devi vedere navigando...

    htaccess non esiste su IIS. Teoricamente puoi fare il controllo del referrer anche nelle pagine usando ASP ma sinceramente non la considero una soluzione ottima... Pensa che esistono suite di sicurezza per pc che per aumentare la privicy (ridicolo!) dell'utente azzerano il referrer di ogni richiesta HTTP... questi utenti non riuscirebbero neanche a navigare sul tuo sito.

    Altra soluzione è analizzare lo user-agent presente anch'esso negli header http. I programmi web-copier spesso usano una stringa user-agent propria che non corrisponde a quella di nessun browser. Filtrando quel campo è possibile teoricamente stabilire su a richiedere la pagina è un browser o un programma web-copier.
    Il rovescio della medaglia è che tali programmi in genere permettono la personalizzazione della stringa user-agent per camuffarsi da browser...
    Leggi il REGOLAMENTO!

    E' molto complicato, un mucchio di input e output, una quantità di informazioni, un mucchio di elementi da considerare, ho una quantità di elementi da tener presente...
    Drugo

  8. #8
    Utente di HTML.it L'avatar di holifay
    Registrato dal
    May 2005
    Messaggi
    1,330
    Originariamente inviato da cipcip
    se ho capito bene nel file .htaccess si puo impedire l'accesso a delel cartelline impostando una password, ma poi il file potrebbe essere scaricato e la password trovata?
    ehm, no non funziona in questo modo. il file htaccess è un file che tu metti in una cartella sul server. Quel file, se opportunamente scritto, impedisce il deep-linking ai documenti presenti in quella cartella che rimangono accessibili solo dalle pagine html che si trovano sul tuo sito.

    Il succo è che chiunque potrà aprire la pagina html che contiene le immagini, i file pdf... ma non potrà linkare direttamente ad essi perchè verrebbe reindirizzato dove decidi tu.
    Pensi di avere un file infetto? Invialo a SuspectFile

  9. #9
    Moderatore di Sicurezza informatica e virus L'avatar di Habanero
    Registrato dal
    Jun 2001
    Messaggi
    9,782
    holifay devo ammettere che al referrer non avevo mai pensato come metodo per bloccare i webcopier... in realtà fatta la legge trovato l'inganno... trovando anche conferma pratica.
    htaccess va bene per bloccare il furto di link cross-site quando navighi perchè il referrer lo gestisce il tuo browser... un web copier a tutti gli effetti deve simulare un browser e a lui non costa nulla inserire i referrer corretti nella richiesta http.

    Ho provato a fare un esperimento e Httrack per esempio inserisce il referrer corretto per la richiesta di ogni pagina... quindi questa non è una strada percorribile...


    Ora la questione rimane in sospeso... cipcip facci un esempio di sito che non riesci a scaricare...
    Leggi il REGOLAMENTO!

    E' molto complicato, un mucchio di input e output, una quantità di informazioni, un mucchio di elementi da considerare, ho una quantità di elementi da tener presente...
    Drugo

  10. #10
    Utente di HTML.it
    Registrato dal
    Jul 2005
    Messaggi
    642
    dunque i lreferer che io uso per determinate pagine e' un metodo valido, ma ovviamente come di ci tu non per i web copier,

    ad ogni modo sono da evitare i referer a tutte le pagine altrimenti si puo' dire ciao a google.

    Tornando ai web copier ripeto non mi interessa copiare il loro codice perche sinceramente queste operazioni di akeraggio mi fanno schifo .

    Tuttavia e' una operazione necessaria per testare la sicuirezza del proprio sito e cercare di capire come fanno per inibire i ldownload.

    Dunque i siti che ci riescono sono appunto tantissimi dicevo.

    Esempi concreti sono:

    html.it
    ecc..
    ecc..
    ecc..
    tutti i siti comemrciali sarebbe inutile fare nomi

    multiplayer.it
    ebay.it
    ecc..
    ecc..

    Forse e' una peculiarita' di chi usa il sistema operativo server SUN

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.