Spero di non essere ot.
ho un nuovo sito dove mostrerò diversi dati che potrebbero fare gola a molti. come posso fare per evitare che altri mi prendano i dati? il sito sarà composto da diverse centinaia di migliaia di pagine e non voglio che altri prendano quei dati per poi utilizzarli sul proprio sito. solo i motori devono "prendere" queste pagine. la prima soluzione è settare il robots.txt. ho pensato poi di fare uno script che si salvi l'ip del client in db e non gli permetta di visualizzare + di 100 o 1000 pagine. non vorrei che però questo comporti problemi agli spider. magari G o msn potrebbero passare e leggersi + di 1000 pagine e il mio script li bloccherebbe. potrei controllare l'useragent ma oramai chiunque sà modificarlo. potrei controllare dei range di ip in modo da capire se sono motori ma nel caso di un passaggio di uno spider particolare (vedi G anticloacking) il mio sito potrebbe essere considerato come spam. avete qualche altra idea sul come potrei proteggere le mie pagine?

Rispondi quotando