大きな(100MB〜500MB)画像をたくさん(1000-10000)処理する必要があるプロジェクトがあります。私が行っている処理はImagemagickで行うことができますが、AmazonのElastic MapReduceプラットフォーム(これはHadoopを使用していると思われます)で実際にこの処理を行うことを望んでいました。画像処理にAmazon MapReduce/Hadoopを使用する
私が見つけたすべての例の中で、それらはすべてテキストベースの入力を扱っています(私はWord Count Countが数十億回ということがわかりました)。私はHadoopでこの種の作業を見つけることはできません。ファイルのセットから始め、それぞれのファイルに同じアクションを実行してから、新しいファイルの出力を自分のファイルとして書き出します。
これはこのプラットフォームで行うことができ、Bashを使用して行うことができるはずです。私は、Javaアプリケーション全体または何かを作成するという手間を要するとは思わないが、間違っている可能性がある。
あなたはCombineFileInputFormatを見てみることができます私は私のコードを手に誰かのために求めていないんだけど、誰もがサンプルコードまたは同様の問題に対処するチュートリアルへのリンクを持っている場合、それははるかに...
画像のためのHadoopは主に、ginormous-size-of-imagesではなく、ginormous-sized画像用です。 –
@aaaaaaaまったくありません。私はHadoopを画像処理に使うことができると思っていますが、彼の要件はHadoopには適していません。しかし、大丈夫です、小さなサイズの画像は、大量の小さな画像よりも優れていますが、あなたは 'CombineInputFormat'の多くの問題を無視することができます。 –