Buongiorno, fermo restando che ognuno può ricercare su Google e altri Motori di ricerca,
Possiamo creare software per esplorare la rete.
Mi chiedo se ci sono dei vincoli, limiti a questa metodica e se ci sono quali sono?
Grazie.
Buongiorno, fermo restando che ognuno può ricercare su Google e altri Motori di ricerca,
Possiamo creare software per esplorare la rete.
Mi chiedo se ci sono dei vincoli, limiti a questa metodica e se ci sono quali sono?
Grazie.
jabjoint
spiegati meglio: vuoi realizzare un crawler?
Più che focalizarmi sulla realizzazione di crawler, per il momento mi sto chiedendo in che modo gli è consentito espolare il web. Le informazioni potranno essere salvate o meno.
Conosco il termine deep web ad esempio.
Supponiamo che il software trovi un sito di contrabbando di armi ad esempio e le archivia.
Risulta un problema?
jabjoint
messa in questi termini ti direi di sentire un avvocato![]()
Non credo che sul web normale tu riesca a trovare qualche sito di contrabbando di armi, penso siano tutti nel darkweb.
Inoltre saranno sicuramente protetti da login e non visibili da un programma che scansiona il web
Da un grande potere derivano grandi responsabilità