Ciao,
mi servirebbe un tool che periodicamente salvi in locale un intero sito web.
Esiste qualcosa per linux?
Grazie![]()
Ciao,
mi servirebbe un tool che periodicamente salvi in locale un intero sito web.
Esiste qualcosa per linux?
Grazie![]()
Si HTTPtrack, ora non ricordo il sito, e il content filtering del lavoro non me lo fa cercare... vai su google e cerca HTTPtrack o HTTTrack![]()
httrack o anche wget
Per farglielo fare periodicamente dovrai impostare un cron job (tipo le "attività pianificate" dei vecchi windows) che lo lanci.
Sto provando httrack e funziona egregiamente.Originariamente inviato da vortex87
httrack o anche wget
Per farglielo fare periodicamente dovrai impostare un cron job (tipo le "attività pianificate" dei vecchi windows) che lo lanci.
L'unico dubbio che ho è come faccio a schedulare l'operazione ogni tot. ore e fargli salvare il sito su directory diverse ad ogni esecuzione?
Allora per la schedulazione come ha detto vortex87 devi usare cron.
Per la cartella diversa ogni volta prova a guardare un pò nelle opzioni di httrack, ci dovrebbe essere il modo di far si che al rilancio aggiorna i file o li duplica... Dai un occhio, fai qualche prova manualemente e vedi come va![]()
Per configurare la ripetizione puoi usare questo: http://gnome-schedule.sourceforge.net/
Per fargli creare ogni volta una nuova directory se non c'è un'opzione apposita in httrack probabilmente la strada più semplice è quella di lanciare al posto di httrack un piccolo script che prima crea la directory e poi lancia httrack.
se serve, la sua interfaccia grafica è "khttrack" (non l'ho mai usata, va troppo bene httrack).
... S'i' fosse Giorgio, com'i' sono e fui,
torrei le donne giovani e leggiadre:
le vecchie e laide lasserei altrui....
Non mandatemi PVT, mi dimentico sempre di leggerli ... mandatemi e-mail, se è il caso