Visualizzazione dei risultati da 1 a 7 su 7

Discussione: protezione cartelle 2

  1. #1

    protezione cartelle 2

    dopo aver letto tutte le pillole e aver ricercato nel forum non ho trovato la risposta alla mia domanda (oo non è che mi sono letto tutte le 5 pagine di 3d eh!)

    allora
    avrei dei file da non rendere downlodabili tramite accesso diretto.

    non voglio usare .htaccess perchè ogni volta che l'utente clicca sul file dovrebbe inserire la psw, poi c'è il problema di scrivere automaticamente nel file .htaccess e tanti altri.

    vorrei semplificare il tutto visto che l'utente accede alla sua pagina effettuando un login (quindi già inserisce il suo nome utente e psw!) e vorrei che solo lui potesse scaricare il file dalla sua area riservata.

    vorrei evitare anche i campi blob nel database.

  2. #2
    come ho già suggerito ad un altro utente del forum, puoi criptare i files durante l'upload e decriptarli in download, forzando il download stesso (cioè senza mettere link diretti al file, ma facendo in modo che l'utente non possa vederne l'URL). se l'hosting te lo permette, metti i files in una cartella non accessibile dal web (quindi non raggiungibile via browser, al di fuori delle directory controllate dal web server). così hai gia un'alta sicurezza e non ti serve nemmeno la criptazione dei files. se invece non puoi farlo, perlomeno impedisci l'accesso ai motori di ricerca alla cartella nella quale uplodi i files, facendo un file robots.txt per evitare che quei documenti finiscano su google.

  3. #3
    Originariamente inviato da OhMyGod
    come ho già suggerito ad un altro utente del forum, puoi criptare i files durante l'upload e decriptarli in download, forzando il download stesso (cioè senza mettere link diretti al file, ma facendo in modo che l'utente non possa vederne l'URL). se l'hosting te lo permette, metti i files in una cartella non accessibile dal web (quindi non raggiungibile via browser, al di fuori delle directory controllate dal web server). così hai gia un'alta sicurezza e non ti serve nemmeno la criptazione dei files. se invece non puoi farlo, perlomeno impedisci l'accesso ai motori di ricerca alla cartella nella quale uplodi i files, facendo un file robots.txt per evitare che quei documenti finiscano su google.
    allora vediamo di capire con calma che ti ho perso a metà discorso

    l'idea di criptarli e decriptarli, mi sembra buona ma alla fine anche cryptati sarebbero raggiungibili via web (anche nascondendo l'url all'utente). l'unica cartella che mi ha dato l'hosting è la cgi-bin.

    non so fare il file rebots.txt (con i motori di ricerca mi litigai tempo fa )

  4. #4

  5. #5

    ...........

    Ciao.
    Dai un'occhio qui
    e se proprio ti ci sei litigato qui
    Without faith, nothing is possible. With it, nothing is impossible
    http://ilwebdifabio.it

  6. #6
    prima del robots.txt vorrei prima risolvere i problemi sulla protezione dei file senza doppio login


    comunque grazie

  7. #7
    Sì anche se i files sono criptati sono comunque raggiungibili via web.... ma sono criptati, non sono in chiaro
    Per i motori di ricerca ri basta fare un file di testo chiamato robots.txt che va messo nella cartella principale del sito, deve essere raggiungibile quindi da un URL tipo: www.nomesito.it/robots.txt

    Il file deve contenere semplicemente questo:

    codice:
    User-agent: *
    Disallow: /public/
    Dove "public" è il nome della cartella nella quale metti i files in upload (sarà la tua /cgi-bin/ o che altro.)

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2024 vBulletin Solutions, Inc. All rights reserved.