私は4人のユーザーが肌の色と上手の機能から抽出した識別情報を使って区別する必要がある問題(C++/opencv)に取り組んでいます。しかし、YCrCbの肌色法は、肌色の間にあまり差がないため、信頼性が非常に低い。したがって、私はより暗い場所などの手からより多くの機能を抽出しようとしています。これを行うには、私は画像のラプラシアンを計算しました。結果:画像処理ハンドの特徴ID
http://imageshack.us/photo/my-images/818/afb1.jpg/
http://imageshack.us/photo/my-images/31/afb2i.jpg/
http://imageshack.us/photo/my-images/638/afb3.jpg/
最初の2つの画像は同じ手/人物の画像です。第2の画像は、他の人からの手である。あなたが見ることができるように、明瞭な輝点が、手のより暗い部分を表す最初の2つの画像に見える。私の考えは、小さな正方形で手の輪郭をサンプリングし、他の画像でこれらの四角形を見つけることでした。その後、与えられた画像に対してどの画像が最もマッチしているかを評価することができます。
しかし、サンプル画像と別の画像の一致を見つけるアルゴリズムが見つかりません。私はcvMatchTemplate()操作(http://dasl.mem.drexel.edu/~noahKuntz/openCVTut6.html#Step%202)とmeanShiftアルゴリズムを試しましたが、両方のテクニックの結果は本当に悪かったです。
誰かに私にいくつかのヒントを教えてもらえますか?
あなたはすでに別のユーザー名で非常によく似た質問を投稿しました。新しい質問でその質問を編集し、削除してください。 –
[画像処理スキンカラー識別]の複製が可能です(http://stackoverflow.com/questions/7589394/image-processing-skin-color-identification) –