0
私はKinect開発の初心者で、openCV-KinectをPythonで使用してリアルタイムのオブジェクトトラッカーを開発しようとしています。これはCamshiftを使用してオブジェクトのX座標とY座標を検出しますアルゴリズム& Kinectの深さストリームを何とか使ってZ座標を計算します。すべてのピクセルの深度値に直接アクセスする方法はありますか?Kinectベースのオブジェクトトラッキング
私はKinect開発の初心者で、openCV-KinectをPythonで使用してリアルタイムのオブジェクトトラッカーを開発しようとしています。これはCamshiftを使用してオブジェクトのX座標とY座標を検出しますアルゴリズム& Kinectの深さストリームを何とか使ってZ座標を計算します。すべてのピクセルの深度値に直接アクセスする方法はありますか?Kinectベースのオブジェクトトラッキング
開きwww.google.com
"Kinectの深さストリーム"
クリックして、最初の結果を入力します。https://msdn.microsoft.com/en-us/library/jj131028.aspx
読むライン3:
奥行きデータストリームの各フレームを カメラの平面から最も近い距離(ミリメートル)を含むピクセルで構成され、 オブジェクトです。
2秒間周りのルックとは深さデータを取得し、表示するリンクを見つける:https://msdn.microsoft.com/en-us/library/jj131029.aspx
コード例を含む詳細、について説明を読む...