Hadoopを使用して大きな画像をJPEG2000形式にエンコード/ また、画像を処理するのにmap reduceを使用するhttp://code.google.com/p/matsu-project/もあります。Hadoopのような分散コンピューティングを使用してJpeg2000に画像を符号化する
画像サイズは1TB +程度であり、単一のマシン上でそれがどのように大きな画像のあなたが話している100Hour +
Hadoopを使用して大きな画像をJPEG2000形式にエンコード/ また、画像を処理するのにmap reduceを使用するhttp://code.google.com/p/matsu-project/もあります。Hadoopのような分散コンピューティングを使用してJpeg2000に画像を符号化する
画像サイズは1TB +程度であり、単一のマシン上でそれがどのように大きな画像のあなたが話している100Hour +
かかりますか? JPEG 2000 Wikipedia pageから、タイルとウェーブレットの変換は容易に並列化できるはずです。タイルは互いに独立しているようです。 JasPerというオープンソースライブラリが広く使われているようですが、Cで書かれているため、Hadoopとのやりとりが少し難解です。
コーデックを分けて、マップステップで適切なタイリングとエコー機能を呼び出し、リバーブステップでイメージを再構成して書き出す必要があります。おそらく、JPEG2000フォーマットそのものをかなり深く理解する必要があります。
質問:1台のマシンでタイルを連続的に処理する場合と比較して、圧縮されていないデータを移動して再構築するのにどれだけの時間を費やすのですか?エンベロープの計算をやり直して、それがその価値があるかどうか、理論上のスピードアップを単一のマシン上で実行する場合と比較してみてください。
画像サイズは約1TB +で、1台のマシンでは100Hour + – portoalet
この問題が進展したのかどうか不思議です。 –