2009-09-02 12 views
1

ウェブページのリストをダウンロードしたい。私はwgetがこれを行うことができることを知っている。しかし、すべてのURLを5分ごとにダウンロードしてフォルダに保存することは、wgetの機能を超えているようです。 誰かが、JavaやPython、あるいはPerlでタスクを達成するツールを知っていますか?5分ごとにウェブページをダウンロードするには?

ありがとうございます。

+9

は、wgetコマンドでのcronを使用してみてください。 –

+0

@wuub:良い解決策のように聞こえる。それをアンサーに入れて受け入れられるのはなぜですか? –

+0

@マーク:私の本では、これは答えとしてカウントされないので、正しい方向に0xDEADBEEFだけです。 –

答えて

5

wgetを使用するbashスクリプトを作成し、それをcrontabに入れて5分ごとに実行します。 (*/5 * * * *)

これらのすべてのWebページの履歴を保持する必要がある場合は、スクリプトの先頭に変数を設定し、現在のunixtimeで出力ファイル名に追加します。あなたはuse cron with wget


にしたいと思いますよう

+0

あなたが記述した履歴部分が必要ない場合、なぜwgetコマンドをa(bash)スクリプト? cronからwgetを呼び出すこともできます。 –

+0

ページのシリーズ(グループ)があるので – KevinDTimm

+0

Erm ...はい、意味があります。 :) –

7

は聞こえるが、あなたのpythonを使用して設定している場合:

import time 
import os 

wget_command_string = "wget ..." 

while true: 
    os.system(wget_command_string) 
    time.sleep(5*60) 
+0

pythonはlaunchdインターフェイスを持っていますか? –

関連する問題