1

後でBag of Wordsに使用される1500画像を含むデータセットの特徴を抽出する必要があります。 1つの画像の結果は、例えば、3168個のメモリを必要とする特徴を有する。すべての機能を保存するだけですか?それぞれの画像のサイズが[フレーム、ディスクリプタ]と異なるため、結果を保存するにはどうすればよいでしょうか?SIFT機能1500画像の抽出

+0

1500イメージは実際には何もありません。十分なストレージがある場合は、最も簡単な方法(各ペアを別々に保存する)に進みます。 – cagatayodabasi

答えて

0

あなたは後で機能を使用すると言います。現在どのように機能を保存して永続化する予定ですか?毎回特徴抽出を行うことはできますが、1500枚の画像では処理が遅くなります。

使用できるオプションは、すべての機能/記述子に基づいてコードブックを生成するk-meansクラスタリングです。私は1100画像のコーパスのためにこれを行い、得られたコードブックは012クラスタの200メガバイトの<です。私のコードブックは、シリアル化された(ピクルされた)オブジェクトとしてPythonに保存されるので、必要なときに簡単に開くことができます。ここで

がk-手段(あなたは、Pythonを使用していると仮定)のクラッシュコースです:http://www.pyimagesearch.com/2014/05/26/opencv-python-k-means-color-clustering/

ますが、別のデータセットのために1500枚の画像から視覚的な言葉の袋を使用していますか?または、BoVWを使用して1500枚の画像をマッチングさせますか?

+0

トレーニングセット(ビジュアルワードのバグ)に1500枚の画像セットを使用し、他の画像でテストしたいと思います。私のアプローチが間違っている場合は、私を修正してください。 – wannabegeek

0

私はストレージに問題があると思う。私が経験したものまで。 siftの記述子を積み重ねる間にpythonに "不十分なメモリ"というエラーがあります。またはプログラムのメモリはメモリを上書きすることはできません..ちょっと仮説