Pagina 1 di 2 1 2 ultimoultimo
Visualizzazione dei risultati da 1 a 10 su 11
  1. #1

    sottodirectory di un sito web

    esiste un metodo per conoscere tutte le sottodirectory di un sito pubblico anche non linkate?


  2. #2
    Moderatore di Sicurezza informatica e virus L'avatar di Habanero
    Registrato dal
    Jun 2001
    Messaggi
    9,782
    Direi proprio di no a meno che il sito permetta il directory listing delle sue cartelle.... ma in questo caso te ne renderesti conto subito.
    Leggi il REGOLAMENTO!

    E' molto complicato, un mucchio di input e output, una quantità di informazioni, un mucchio di elementi da considerare, ho una quantità di elementi da tener presente...
    Drugo

  3. #3
    Originariamente inviato da Habanero
    Direi proprio di no a meno che il sito permetta il directory listing delle sue cartelle.... ma in questo caso te ne renderesti conto subito.
    in quel direi c'è qualche possibiltà? oppure è una cosa impossibile?

  4. #4
    Moderatore di Sicurezza informatica e virus L'avatar di Habanero
    Registrato dal
    Jun 2001
    Messaggi
    9,782
    Quasi nulla è impossibile in questo campo, ma se l'amministratore saggiamente non permette il browsing delle cartelle, l'utente web non puo' fare nulla.
    A meno che buchi il server ovviamente.
    Leggi il REGOLAMENTO!

    E' molto complicato, un mucchio di input e output, una quantità di informazioni, un mucchio di elementi da considerare, ho una quantità di elementi da tener presente...
    Drugo

  5. #5
    Puoi provare su http://johnny.ihackstuff.com/ scarica il Gooscan o uno dei tanti CGI- scanner. Un'altra tecnica è quella di trovare il robots.txt, in cui in genere vengono indicate le directory escluse dall'indicizzazione. Puoi fare in due modi, sempre che sia linkato:

    1. www.nomesito.it/robots.txt
    a volte questa pagina non c'è, e ti da un errore 404. Questo errore riporta a volta l'intestazione del web server.

    2. site:nomesito.it filetype:txt "robots.txt"

    Un primo approccio è quello di mappare il sito, ad esempio:

    site:html.it html

    per avere le directory linkate e poterci navigare tranquillamente senza per forza passare dalla home page.


  6. #6
    Moderatore di Sicurezza informatica e virus L'avatar di Habanero
    Registrato dal
    Jun 2001
    Messaggi
    9,782
    thomas lui chiede esplicitamente come raggiungere anche quelle non linkate... e solo un pazzo suicida le metterebbe nel robots.txt.
    Escludere dall'indicizzazione uan pagina o una cartella non significa renderla inacessibile.

    Per quelle linkate la cosa più banale è usare un semplicissimo scanner o uno di quei software (ad es Httrack) che scarica completamente un sito.
    Leggi il REGOLAMENTO!

    E' molto complicato, un mucchio di input e output, una quantità di informazioni, un mucchio di elementi da considerare, ho una quantità di elementi da tener presente...
    Drugo

  7. #7
    Originariamente inviato da thomas_anderson
    Puoi provare su http://johnny.ihackstuff.com/ scarica il Gooscan o uno dei tanti CGI- scanner. Un'altra tecnica è quella di trovare il robots.txt, in cui in genere vengono indicate le directory escluse dall'indicizzazione. Puoi fare in due modi, sempre che sia linkato:

    1. www.nomesito.it/robots.txt
    a volte questa pagina non c'è, e ti da un errore 404. Questo errore riporta a volta l'intestazione del web server.

    2. site:nomesito.it filetype:txt "robots.txt"

    Un primo approccio è quello di mappare il sito, ad esempio:

    site:html.it html

    per avere le directory linkate e poterci navigare tranquillamente senza per forza passare dalla home page.

    il robots.txt non c'è nella main directory, per la 2. e la 3. funzionano anche in win?

  8. #8
    Originariamente inviato da Habanero
    thomas lui chiede esplicitamente come raggiungere anche quelle non linkate... e solo un pazzo suicida le metterebbe nel robots.txt.
    Escludere dall'indicizzazione uan pagina o una cartella non significa renderla inacessibile.

    Per quelle linkate la cosa più banale è usare un semplicissimo scanner o uno di quei software (ad es Httrack) che scarica completamente un sito.
    infatti la cartella che mi interessa è diponibile a tutti, l'indirizzo mi era stato dato verbalmente ma non ricordo più qual'era

  9. #9
    Originariamente inviato da nextpaco
    il robots.txt non c'è nella main directory, per la 2. e la 3. funzionano anche in win?
    scusa nn avevo capito che era in google!

  10. #10
    caro haba, ti posso assicurare che di pazzi suicidi ne ho incontrati parecchi (se vuoi ti do anche i link). addirittura pazzi suicidi che lasciano directory amministrative scoperte, directory con password, script di configurazione, forum di prova con possibilità di creare account di amministratore e via dicendo. per non parlare di quelli che configurano il server in modo tale da fornire indicazioni sulla sua versione ad ogni errore intenzionale. cmq il problema di nextpaco era diverso. vale il consiglio di usare uno scanner come avevo detto. il bello sta nel riuscire a trovare più info possibili su un sito usando solo Google (senza scanner, ehi! ). nextpaco, scarica questa:

    www.re1.it/gabriele/googleguide.pdf

    ciao

Permessi di invio

  • Non puoi inserire discussioni
  • Non puoi inserire repliche
  • Non puoi inserire allegati
  • Non puoi modificare i tuoi messaggi
  •  
Powered by vBulletin® Version 4.2.1
Copyright © 2025 vBulletin Solutions, Inc. All rights reserved.