2010-11-30 20 views
3

依存関係を持つWebページをJavaコードでダウンロードして、オンラインで同じ方法でローカルにレンダリングするにはどうすればよいですか? (Ajaxを除く)。私はwgetがこれを行うことができると聞いてきましたが、私は同じことをすることができるいくつかのJavaコードを探しています。Javaで依存関係のあるWebページをダウンロードするにはどうすればよいですか?

ありがとうございます。

答えて

1

(オープンソースの)Webクローラのリスト:http://java-source.net/open-source/crawlersこれは、これを行うために使用することもできますし、コードを覗き見てどのように行うこともできます。

+0

私は実際にWebSphinxを使用していますが、私はドキュメントでグッドタイムを過ごして例を検索しても、クラスライブラリ(ワークベンチから簡単です)でそれを行う方法を見つけることができません。私はそれが機能を持っていることを知っているときにかなり迷惑な、私はそれを見つけることができません! ;)私は他のいくつかをチェックアウトします。 – Kris

+0

@Kris、私はそのクローラに精通していませんが、APIを見れば、クローラインスタンスを作成し、APIで説明されている手順を実行する必要があります:http://www-2.cs .cmu.edu /〜rcm/websphinx/doc/websphinx/Crawler.html –

+0

あなたの努力に感謝します。しかし、私は自分自身でクロールするのに苦労しているわけではありません(私は正常にクローラを設定しました)。依存関係のあるページをローカルに表示してOKをレンダリングします。これは、「メインページ」にリンクされているCSSや画像をダウンロードするか、ローカルコピーが絶対URLで記述されていることをHTMLやCSSで確認することによって行うことができます。私は自分自身のコードを書く必要はなかったと思っていました:) – Kris

関連する問題