2012-01-30 13 views
-3

私はウェブサイトを持っています。リンクは次の構造を持っています:http://example.com/1http://example.com/2http://example.com/3などです。このページのそれぞれは、簡単なテーブルを持っています。だから私はどのように私のコンピュータ上のすべての1ページを自動的にダウンロードできますか?ありがとう。ウェブサイトの解析

P.S.あなたの何人かが私にそれをgoogleに教えるかもしれないことを知っています。しかし、私は実際に何を探しているのかわかりません(私は検索フィールドに何を入力するのかを意味します)。 wgetコマンドラインツールをチェックし、サイトに

+0

「スクリーンスクレイピング」のGoogleをご覧ください。そして、それらのページをダウンロードするプログラムを書く方法を尋ねていますか? –

+0

はスーパーユーザーに投稿する必要があります – Quamis

答えて

3

使用wget (http://www.gnu.org/software/wget/)。それはあなたがウェブページをダウンロードして保存させるでしょう。

さらに、あなたの質問は、スタックオーバーフローコミュニティが非常に助けになるほど広すぎます。

2

をこすりする

+0

"broad"とはどういう意味ですか? –

+0

今日使用されているほとんどのプログラミング言語はHTMLファイルをダウンロードすることができ、通常は1つの言語でも多数の方法があります。 「ウェブサイトをダウンロードするにはどうすればよいですか?ちょうどそれは...広すぎる。質問する方法を確認してください:http://meta.stackexchange.com/questions/18584/how-to-ask-a-smart-question – cdeszaq

+0

あなたのアドバイスをありがとう –

関連する問題