Ciao a tutti..
ho un quesito..
devo scaricare da un sito un sacco di cose..
saranno 30 file.. --> 30 link.
ora esiste un metodo in linux per automatizzare questa cosa..
e prelevare tutto??
ciao
Ciao a tutti..
ho un quesito..
devo scaricare da un sito un sacco di cose..
saranno 30 file.. --> 30 link.
ora esiste un metodo in linux per automatizzare questa cosa..
e prelevare tutto??
ciao
When I was young I used to pray for a bike. Then I realized that God doesn't work that way. So I stole a bike and prayed for forgiveness.
thanks
When I was young I used to pray for a bike. Then I realized that God doesn't work that way. So I stole a bike and prayed for forgiveness.
ciao.
ho letto la pagina man di wget..
e ho dato questo comando:
wget --progress=bar --input-file=url --tries=0 --wait=20 --directory-prefix=/home/download
ora sembra procedere.. lo lascio andare in back..
vado a vedere e mi trovo salvati dei simil pagine HTML..
al cui interno ho uno strano Çë½øÈë±¾Õ¾Ò³ÃæºóÔÙ½øÐÐÏÂÔØ¡£
[/COLOR]
i link li ho scritti nel file url..
sono giusti..sono gli stessi link che da browser funzionano..
ovvero cliccandoci sopra mi parte il download del file..
come mai mi succede ciò???
devo mettere qualche altra opzione?
Grazie mille..
When I was young I used to pray for a bike. Then I realized that God doesn't work that way. So I stole a bike and prayed for forgiveness.
prova a usare pure il prg kget e lo configuri con konqueror
grazie ma non ho installato konqueror..
mi è sempre stato sulle palle!!
non so perchè..
:quipy:
When I was young I used to pray for a bike. Then I realized that God doesn't work that way. So I stole a bike and prayed for forgiveness.